Verständnisproblem bzgl. der Definition Kursvorhersage

mit matplotlib, NumPy, pandas, SciPy, SymPy und weiteren mathematischen Programmbibliotheken.
Antworten
LMintUser
User
Beiträge: 9
Registriert: Freitag 8. November 2019, 21:22

Guten Tag,

ich bin gerade dabei meine ersten Gehversuche mit TensorFlow zu starten und zum Einstieg hat mich dazu der folgende Artikel animiert:

https://towardsdatascience.com/cryptocu ... 4fcdbccd3f
Code: https://colab.research.google.com/drive ... 2Knr3N1Xbm


Das Skript zum aktuellen sammeln der Daten hatte ich bereits angefertigt weshalb die grundsätzliche Idee mittels KI Vorhersagen zu berechnen mich besonders getriggert hat.

Das Beispiel aus dem Artikel konnte ich in google colab erfolgreich mit meinen gesammelten Daten anwenden. Mein eigentliches Problem ist nun ein Verständnisproblem bzw. irgendwie kann ich die Intention des Autors nicht ganz nachvollziehen denn unter einer klassischen Vorhersage verstehe ich etwas anderes.

Was ich glaube bisher verstanden zu haben:

-LSTM steht im Mittelpunkt und berechnet unsere Vorhersagefunktion welche im wesentlichen dadurch gebildet wird das die historischen Daten in einer bestimmten Form (3 Dimensionen wobei die mit dem Wert 1 künstlich erschaffen wurde weil dies sonst tensorflow nicht verarbeiten kann und die mit dem Wert 99 so festgelegt wurde weil nur maximal 100 memory units in LSTM zur Verfügung stehen) als input aufgenommen wird und dann durch diesen Algorithmus durchgejagt wird und der output danach wieder als imput aufgenommen wird – im Prinzip geschieht dies solange bis alle möglichen Kombinationen rückt ja immer 1 auf ausprobiert wurden (vereinfacht gesagt ein bischen wie bruteforcing für mathematische Funktionen)
- train_split = 0.95 gibt das Verhältnis zwischen Trainingsdaten und Testdaten(Vorhersagedaten) an (siehe output X_test.shape gleich Anzahl der Tage die vorhergesagt werden). Ganz unten bei der Vorhersage findet scheinbar ein Transformationsprozess statt

y_hat = model.predict(X_test)

y_hat_inverse = scaler.inverse_transform(y_hat)

Das y hat (https://www.statisticshowto.com/y-hat-definition/) ist quasi wie oben beschrieben meine errechnete Funktion also die magische Formel für meine Voraussageberechnung. In diesem Codebeispiel soll aber das y hat wohl nur auf den vorgegebenen Zeitraum X_test eingeschränkt werden.

So nun zu meinem Logikproblem oder warum der Begriff Vorhersage für mich etwas in die Irre führt. Es ist ja toll das ich für einen gewissen Zeitraum eine Vorhersage berechnen kann und diese gleich mit den echten Daten abgleichen kann aber viel spannender wäre doch einfach einmal zu schauen wie die Vorhersage aussieht auch wenn noch keine Daten zu Grunde liegen quasi ein Blick in die Glaskugel. Die CSV Datei einfach mit dem entsprechenden Datum in die Zukunft erweitern funktioniert nicht. Wie lässt sich dies bewerkstelligen?

Ich weiß bevor ich eure kostbare Zeit verschwende sollte ich mich besser noch einmal mit den Grundlagen befassen aber ich bin eher so der learning by doing Typ der sich neuen Themen immer erst einmal spielerisch nähert bevor er trockene Literatur wälzt.
tonikae
User
Beiträge: 90
Registriert: Sonntag 23. Februar 2020, 10:27

Nur vorhandene Daten auszuwerten ist Statistik.
Den "Blick in die Glaskugel" nennt man Stochastik.

Und da gibt es duchaus einige Algorithmen.
Für grobe Abschätzungen verwendet man normalerweise das Bayes-Theorem.
Das ist so ein richtiger Allerweltsalgorithmus der in allen möglichen Anwendungsgebieten
(Statistik, Data-Mining, KI, ...oder eben Ökonometrie) verwendet wird...nix besonderes,
kommt mit wenig Daten aus. Hat aber wie alle "Blicke in die Zukunft" eine gewisse
Irrtumswahrsheinlichkeit.Deshalb muss man die Daten auch immer auf Plausibilität
gegenprüfen.

Wenn einem das zu unsicher ist, eben Regression.
Antworten