Daten einlesen per automatische Tastenkombination

Wenn du dir nicht sicher bist, in welchem der anderen Foren du die Frage stellen sollst, dann bist du hier im Forum für allgemeine Fragen sicher richtig.
Antworten
StolenURBike
User
Beiträge: 2
Registriert: Mittwoch 2. Mai 2018, 09:41

Hallo Leute,

ich bin neu in der Pythonwelt und habe innerhalb der letzten Wochen ein Programm erstellt, dass aus Datensätzen Statistiken über die Verkaufszahlen erstellt.

Jedoch ist das Problem, dass ich diese Daten nur von der Firmenwebsite bekomme und aus mehreren Seiten verteilt steht.
Sodass ich momentan die ganze Seite kopiere, einfüge - kopieren, einfügen usw.

Gibt es dafür ggf. eine Hilfestellung um das zu vereinfachen?
Also sodass man ein Programm erstellt das beim ausführen alles Kopiert, abspeichern und mittels von F5 auf die nächste Seite geht und dort wieder alles kopiert.

Schon im Vorraus - Danke für euere Bemühungen
Sirius3
User
Beiträge: 17746
Registriert: Sonntag 21. Oktober 2012, 17:20

@StolenURBike: was willst Du wohin kopieren? Wenn man Daten von einer Webseite lesen will, benutzt man eine entsprechende Bibliothek (urllib, requests mit passendem Parser oder lxml, etc.). Aber ohne das Problem genauer zu kennen, ist es schwierig zu helfen.
StolenURBike
User
Beiträge: 2
Registriert: Mittwoch 2. Mai 2018, 09:41

Hey Sirius,

Entschuldigung, dass ich mich ein wenig unpräzise ausgedrückt habe.

Aber wir haben ein firmeninternes Portal auf dem Verkaufszahlen publiziert werden. Jedoch kann man nicht so einfach aus dem öffentlichen Internet darauf zugreifen.

Ich suche eher eine Anwendung mit der ich das was ich auf dem Bildschirm automatisch kopiere und in einer List einlese.

Also ich rufe die Seite auf und sage Python, dass er bitte alle Zeichen aus dem Browser kopiert und abspeichern.
So circa wie wenn ich manuell Str+A, Str+C drücke und das dann in eine Liste speicher.
Sirius3
User
Beiträge: 17746
Registriert: Sonntag 21. Oktober 2012, 17:20

@StolenURBike: ob die Seite intern oder weltweit erreichbar ist, ist egal. Man kann sie trotzdem direkt mit Python lesen.
Benutzeravatar
pixewakb
User
Beiträge: 1412
Registriert: Sonntag 24. April 2011, 19:43

Wenn es die Webseite deines Unternehmens ist, dann frag nach, ob es eine IT-Abteilung gibt und die die Rohdaten liefern können.

Ansonsten: URL an requests übergeben, die Seite dann z. B. mit BeautifulSoup auswerten und das damit machen, was ihr braucht.

Code: Alles auswählen

import requests
from bs4 import BeautifulSoup

web = requests.get("https://www.python.org/").text
soup = BeautifulSoup(web, "html5lib")

h2tags = soup.find_all("h2")

for h2 in h2tags:
    print(h2.text)
Der Code funktioniert, Du wirst die Bibliotheken installieren müssen. Wenn Du es ausführst, siehst Du schnell, dass man da Rohdaten bekommt, die man "verfeinern" muss. scrapy ist auch noch eine Bibliothek aus dem Bereich...

PS: Ich habe erst jetzt gesehen, dass Du Dich im Intranet bewegst, da habe ich keine Erfahrung, leider. Ich würde obigen Code da allerdings auch einmal versuchen, möglicherweise funktioniert es auch im Intranet (was ich selbst nicht testen kann).
Antworten