Mit dem Modul "requests" kannst du scrappen, also Webseitendaten auslesen und mit "BeautifulSoup" diese in HTML-Code umwandeln.
Vom Vorgehen her musst du erstmal im HTML Code herausfinden welche Daten beim Login benötigt werden (siehe "input" Tags), denn genau diese Daten musst du mit deinem Python Programm an den Server senden (mit Cookie). Du wirst von "requests" die Befehle ".get()" und ".post()" benötigen.
Hatte Mal was für ein BrowserGame geschrieben: OGame, weil ich die ständigen Angriffe satt hatte. Ich hatte also automatisierung drin.
*[EDIT]: google nach "python html scrapping" oder "python html crawling"!
*[EDIT]:
Das wäre die Login-Seite:
https://de.forgeofempires.com/ und so würde der Tag für den Browsernamen aussehen (bei dir etwas anderes möglicherweise, da du bereits registriert bist):
Code: Alles auswählen
<input type="text" id="registration_nickname" name="registration[nickname]" novalidate="novalidate" required="required" autocomplete="off">
Was du dann mittels Python so z.b. "füllen" kannst:
Code: Alles auswählen
session = requests.Session()
session.post(<loginPage>, data={'registration[nickname]':<username>}) #mit benötigten Cookies.
Die Cookies findest du heraus, indem du die bei der Entwicklerkonsole unter "Application" unter "Cookies" schaust, welche ohne Login da sind und welche dann beim Login da sind.
Die, die neu hinzugekommen sind, deren Inhalt musst du bei der Cookieübergabe dann auch verwenden.
Für das Ganze brauchst du auf jeden Fall die Entwicklerkonsole vom Browser.