Neuronales Netzwerk
Verfasst: Mittwoch 30. November 2016, 15:26
Hallo!
Ich möchte gerne ein neuronales Netzwerk programmieren, und benötige da etwas Unterstützung. Meine Schwäche liegt in Mathe und Numpy.
Ich habe im Grunde zwei Datenreihen, beides Zahlen. Ich möchte ein neuronales Netzwerk, dass Korrelation und Kausalitäten zwischen diesen zwei Datenreihen erkennt und für die eine Datenreihe eine Vorhersage macht. Eine der Datenreihen sind Zahlen über Zeit, die andere Datenreihe sind Wörter über Zeit (in Vektoren konvertiert). Als Eingabe habe ich also sehr viele Dimensionen, wenn ich das richtig verstehe.
Ganz einfaches Beispiel:
---> Zeitache
1 1 1 1 1 1 1 2 2 2 2 2 1 1 1 1 1
1 2 3 1 3 3 3 1 3 1 2 1 1 2 1 1 2 (vorher: a b c a c c c etc.)
Hier würde der Algorithmus den Anstieg von 1 auf 2 oben in Korrelation setzen zum Auftreten von 3 im Unteren. Wobei da vielleicht noch ein Zwischenschritt fehlt, der die Wörter zu Themen zusammenfasst.
Wie würdet ihr sowas angehen? Knackpunkt: Ich habe die Daten im Stream, der Algorithmus soll sich laufend aktualisieren und im Takt neue Werte berechnen für die Vorhersage. Sozusagen dauerhaftes Lernen. Dies aufgrund der Datenmenge. Hat jemand a) Mathestoff zum Lernen der Grundlagen (Lineare Algebra) b) Beispiele für solche Umsetzungen und am Wichtigsten c) Tipps zur Umsetzung oder Kritik an der Vorgehensweise?
Ich bin über LSTM und RNN gestolpert.
Anwendungsbeispiel: Zahlen zu Todesfällen von Wildvögeln in Korrelation setzen zu Nachrichtenmeldungen über Wildvögel / Vogelgrippe etc.
Vielleicht findet sich hier im Forum jemand, der sich schon mit NN beschäftigt hat, mit Dingen wie Tensorflow oder Keras.
Ich möchte gerne ein neuronales Netzwerk programmieren, und benötige da etwas Unterstützung. Meine Schwäche liegt in Mathe und Numpy.
Ich habe im Grunde zwei Datenreihen, beides Zahlen. Ich möchte ein neuronales Netzwerk, dass Korrelation und Kausalitäten zwischen diesen zwei Datenreihen erkennt und für die eine Datenreihe eine Vorhersage macht. Eine der Datenreihen sind Zahlen über Zeit, die andere Datenreihe sind Wörter über Zeit (in Vektoren konvertiert). Als Eingabe habe ich also sehr viele Dimensionen, wenn ich das richtig verstehe.
Ganz einfaches Beispiel:
---> Zeitache
1 1 1 1 1 1 1 2 2 2 2 2 1 1 1 1 1
1 2 3 1 3 3 3 1 3 1 2 1 1 2 1 1 2 (vorher: a b c a c c c etc.)
Hier würde der Algorithmus den Anstieg von 1 auf 2 oben in Korrelation setzen zum Auftreten von 3 im Unteren. Wobei da vielleicht noch ein Zwischenschritt fehlt, der die Wörter zu Themen zusammenfasst.
Wie würdet ihr sowas angehen? Knackpunkt: Ich habe die Daten im Stream, der Algorithmus soll sich laufend aktualisieren und im Takt neue Werte berechnen für die Vorhersage. Sozusagen dauerhaftes Lernen. Dies aufgrund der Datenmenge. Hat jemand a) Mathestoff zum Lernen der Grundlagen (Lineare Algebra) b) Beispiele für solche Umsetzungen und am Wichtigsten c) Tipps zur Umsetzung oder Kritik an der Vorgehensweise?
Ich bin über LSTM und RNN gestolpert.
Anwendungsbeispiel: Zahlen zu Todesfällen von Wildvögeln in Korrelation setzen zu Nachrichtenmeldungen über Wildvögel / Vogelgrippe etc.
Vielleicht findet sich hier im Forum jemand, der sich schon mit NN beschäftigt hat, mit Dingen wie Tensorflow oder Keras.