Ich versuche gerade ein Künstliches Neuronales Netzwerk zu implementiern. Ich habe dieses wunderbare Tutorial zu Backpropagation gefunden: http://galaxy.agh.edu.pl/~vlsi/AI/backp ... kprop.html
Bei diesem Schritt: df1(e)/de
versteh ich das richtig, ich muss mit mit den unveränderten Gewichten wieder den Wert des Neurons berechnen und diesen Wert in die Ableitung der Aktivierungsfunktion eingeben?
Danke
Gruss
fail
Backpropagation
Ja, du musst das ganze als Gradientenabstieg sehen. Du befindest dich auf der Funktion f1 an Position e und möchtest herausfinden, in welche Richtung du dich auf f1 bewegen musst, damit der Wert kleiner wird. Durch die Ableitung df1(e)/de bekommst du die Steigung und das Delta gibt dir die Richtung.
Schau dir das Gradientenverfahren mal an und rechne das für eine einfache Funktion, zum Beispiel y = (x-3)^2 - 2 mit dem Startwert x0=1, durch. Dann wird dir wahrscheinlich einiges klarer.
Schau dir das Gradientenverfahren mal an und rechne das für eine einfache Funktion, zum Beispiel y = (x-3)^2 - 2 mit dem Startwert x0=1, durch. Dann wird dir wahrscheinlich einiges klarer.
Das Leben ist wie ein Tennisball.