Mehrere APIs gleichzeit anzapfen und Daten verarbeiten
Verfasst: Montag 11. November 2019, 00:56
Ich bin leider kompletter Python Neuling habe aber schon vertiefte JAVA Kenntnisse. Ich möchte ein Python Skript schreiben welches von verschiedenen Kryptobörsen die Orderbücher (bid und ask) bezieht und dann vergleicht ob sich aufgrund des Spreads zwischen den Börsen interessanten Handelskonstelationen ergeben könnten.
Hab jetzt schon mal mit der ersten Library angefangen rum zu spielen aber eigentlich möchte ich das am liebsten irgendwie parallelisieren. In Java hatte ich das mit einer Notlösung mit mehreren Threads gemacht. Ich denke aber am effektivsten wäre das auf Netzwerkebene .... Hab etwas gegoogelt:
https://hackernoon.com/how-to-run-async ... 64dc0f8546
Der Author weist ja auf "aiohttp" hin hat damit hier jemand Erfahrung?
https://docs.aiohttp.org/en/stable/cli ... tart.html
In Java hatte ich die api Adressen und die Ausgaben in array Listen gespeichert gehabt. Wie sollte ich das am besten in Python realisieren? Vielleicht auch wieder als JSON ausgeben also möchte ja diese Abfragen sammeln, aufbereiten und später mal mit einem Tool auslesen (vielleicht lassen sich auf Grundlage der Daten auch interessante Erkenntnisse gewinnen z.B. welcher Handelsplatz tendenziell die niedrigsten Preise etc. hat). Alles aber der Reihe nach denn im ersten Schritt geht es ja ums effiziente mining der Daten.
Code: Alles auswählen
import requests
print ("hier kommt eine Ausgabe")
r = requests.get('https://api.hitbtc.com/api/2/public/orderbook/ETHUSD')
m = requests.get('https://api.kraken.com/0/public/Depth?pair=ETHEUR')
print (r.text)
print (m.text)
https://hackernoon.com/how-to-run-async ... 64dc0f8546
Der Author weist ja auf "aiohttp" hin hat damit hier jemand Erfahrung?
https://docs.aiohttp.org/en/stable/cli ... tart.html
In Java hatte ich die api Adressen und die Ausgaben in array Listen gespeichert gehabt. Wie sollte ich das am besten in Python realisieren? Vielleicht auch wieder als JSON ausgeben also möchte ja diese Abfragen sammeln, aufbereiten und später mal mit einem Tool auslesen (vielleicht lassen sich auf Grundlage der Daten auch interessante Erkenntnisse gewinnen z.B. welcher Handelsplatz tendenziell die niedrigsten Preise etc. hat). Alles aber der Reihe nach denn im ersten Schritt geht es ja ums effiziente mining der Daten.