Planung: Parsen von Logdaten und Vorabanalyse mit SQLite
Verfasst: Donnerstag 9. Oktober 2014, 14:39
Hallo,
im Rahmen einer Bachelorarbeit lautet mein Thema:
"Zur Bewertung von Systemstabilität soll eine Auswertung von Logdaten automatisch für eingebettete Systeme erfolgen."
Dabei sollen bestimmte Informationen aus verschiedenen Logfiles geparst werden und mit SQLite vorab aufbereitet/sortiert werden.
Im späteren Verlauf sollen diese Daten als Statistiken auf einen Front-End zur Verfügung gestellt werden. Dies ist aber erst einmal uninteressant für den Anfang.
Mit diesem Thread möchte ich erst einmal herausfinden was mit Python alles möglich ist um diese Aufgabenstellung lösen zu können.
Zu den Logfiles:
Diese kommen von verschiedenen Datenloggern und besitzen dadurch auch andere Strukturen im Aufbau (Zeitstempel, Signalwörter, etc) aber geloggt wird die gleiche Hardware. Die Dateien können unterschiedlich groß sein (Anzahl Zeilen >30.000), abhängig von Dauer der Logzeit. Dabei spielt das Thema Performance eine wichtige Rolle (evtl. Multithreading?).
Wichtige Informationen sind z.B. Software und Hardware Version des Gerätes und noch einige mehr.
Geplant war es von mir die Daten mit Python zu parsen und diese Informationen erst in eine XML oder CSV Datei zwischengespeichert werden (z.B. CSV Modul) oder ob das gleich direkt mit dem SQLite Modul möglich wäre.
Ich besitze soweit Grundkenntnisse in C, C++ und Python (etwas weniger als die anderen beiden). Mein Betreuer wünscht sich aber eine Lösung in Python.
Im ersten Schritt wollte ich in einer Logfile nach einer bestimmten Information suchen und diese parsen und dies dann soweit erweitern, bis ich alles habe was ich brauch.
Jetzt würde ich einfach von erfahrenen Python Programmierern erfahren wie gut dies zu bewerkstelligen ist oder ob die Umsetzung Problematisch ist.
Falls noch Unklarheiten sind einfach schreiben.
im Rahmen einer Bachelorarbeit lautet mein Thema:
"Zur Bewertung von Systemstabilität soll eine Auswertung von Logdaten automatisch für eingebettete Systeme erfolgen."
Dabei sollen bestimmte Informationen aus verschiedenen Logfiles geparst werden und mit SQLite vorab aufbereitet/sortiert werden.
Im späteren Verlauf sollen diese Daten als Statistiken auf einen Front-End zur Verfügung gestellt werden. Dies ist aber erst einmal uninteressant für den Anfang.
Mit diesem Thread möchte ich erst einmal herausfinden was mit Python alles möglich ist um diese Aufgabenstellung lösen zu können.
Zu den Logfiles:
Diese kommen von verschiedenen Datenloggern und besitzen dadurch auch andere Strukturen im Aufbau (Zeitstempel, Signalwörter, etc) aber geloggt wird die gleiche Hardware. Die Dateien können unterschiedlich groß sein (Anzahl Zeilen >30.000), abhängig von Dauer der Logzeit. Dabei spielt das Thema Performance eine wichtige Rolle (evtl. Multithreading?).
Wichtige Informationen sind z.B. Software und Hardware Version des Gerätes und noch einige mehr.
Geplant war es von mir die Daten mit Python zu parsen und diese Informationen erst in eine XML oder CSV Datei zwischengespeichert werden (z.B. CSV Modul) oder ob das gleich direkt mit dem SQLite Modul möglich wäre.
Ich besitze soweit Grundkenntnisse in C, C++ und Python (etwas weniger als die anderen beiden). Mein Betreuer wünscht sich aber eine Lösung in Python.
Im ersten Schritt wollte ich in einer Logfile nach einer bestimmten Information suchen und diese parsen und dies dann soweit erweitern, bis ich alles habe was ich brauch.
Jetzt würde ich einfach von erfahrenen Python Programmierern erfahren wie gut dies zu bewerkstelligen ist oder ob die Umsetzung Problematisch ist.
Falls noch Unklarheiten sind einfach schreiben.