Seite 1 von 1

Backpropagation

Verfasst: Samstag 22. März 2014, 20:32
von fail
Ich versuche gerade ein Künstliches Neuronales Netzwerk zu implementiern. Ich habe dieses wunderbare Tutorial zu Backpropagation gefunden: http://galaxy.agh.edu.pl/~vlsi/AI/backp ... kprop.html
Bei diesem Schritt: df1(e)/de
Bild
versteh ich das richtig, ich muss mit mit den unveränderten Gewichten wieder den Wert des Neurons berechnen und diesen Wert in die Ableitung der Aktivierungsfunktion eingeben?

Danke

Gruss
fail

Re: Backpropagation

Verfasst: Samstag 22. März 2014, 21:23
von EyDu
Ja, du musst das ganze als Gradientenabstieg sehen. Du befindest dich auf der Funktion f1 an Position e und möchtest herausfinden, in welche Richtung du dich auf f1 bewegen musst, damit der Wert kleiner wird. Durch die Ableitung df1(e)/de bekommst du die Steigung und das Delta gibt dir die Richtung.

Schau dir das Gradientenverfahren mal an und rechne das für eine einfache Funktion, zum Beispiel y = (x-3)^2 - 2 mit dem Startwert x0=1, durch. Dann wird dir wahrscheinlich einiges klarer.

Re: Backpropagation

Verfasst: Sonntag 23. März 2014, 13:44
von fail
Ja, leider hatten wir in der Schule weder Analysis noch Matrizen. Aber ich glaub ich versteh jetzt in etwa das Prinzip. Danke


Gruss
fail