ich bin ziemlich neu im dem Thema, versuche aber dennoch mich hier zu verbessern.
Zu meinem Problem:
Ich habe zwei Scripts, das erste macht alle 10 Sekunden einen Ping an eine IP und schreibt das ergebnis in eine txt datei.
Ein zweites soll diese Datei dann auslesen und das Ergebnis plotten.
Hier mal der Code zum auslesen und Plotten.
Code: Alles auswählen
import matplotlib.pyplot as plt
import time
ping = []
zeit = []
with open ("C:\\Users\\Benjamin.Baehrle\\Desktop\\HL_COM_SGD\\Ping_TXT\\06.04.2019.txt", 'r') as file:
for x in file:
if x != '\n':
datum_zeit = x.strip().split('[')[0].split(' ')[1]
ip_ziel = x.strip().split('[')[1].split(',')[1].split(' ')[4][:-1]
zeit.append(datum_zeit)
if x.strip().split('[')[1].split(',')[1].split(' ')[1][1:] == '64':
ping_zeit = float(x.strip().split('[')[1].split(',')[1].split(' ')[7].split('=')[1])
ping.append(ping_zeit)
else:
ping .append(0.0)
print(ping)
print(zeit)
plt.xlabel('Zeit von ' + zeit[0] + ' bis ' + zeit[-1], fontsize=15)
plt.ylabel('Latenz in ms an IP' + ip_ziel)
plt.plot(ping, zeit)
plt.show()
Kann ich das irgendwie in einen Brauchbaren Rahmen bringen? so 30-60 Sekunden wären noch Akzeptabel.
Es sind nach Adam Riese ja ca. 8500 Datenpunkte
Bitte um Hilfe

Danke schonmal.