Du bist derjenige, der diese Behauptung aufstellt, das "wir" das nicht wuessten. Aber ich muss einen Nobelpreis vorlegen? Es gibt eine Vielzahl von Prozessen und Algorithmen, bei denen wir die Ergebnisse nicht vorhersagen koennen, weil sie Zufallselemente beinhalten oder nicht so genau kontrolliert werden koennen. Beruehmtes Beispiel: Intel-Fabs, die irgendwelche Rohre um die Ecke legen, weil das in der Ur-Fab so aus architektonischen Gruenden so war. Auch wenn die neue Fab das nicht erzwingen wuerde. Und sie nicht wissen, ob das nicht einen Einfluss auf die Ausbeute an ICs hat. Nur weil dem so ist, sagt doch auch keiner "also wir wissen nicht, wie man ICs herstellt".DeaD_EyE hat geschrieben: Niemand ist in der Lage zu sagen wieso ein NN zu einer Entscheidung gekommen ist.
Falls du das weißt, dann erkläre es uns und dann kannst du dein Nobelpreis abholen.
Lediglich die Mechanik von etwas zu kennen, bedeutet nicht, dass man die komplette Maschine verstanden hat. Ja, wir können NN optimieren bis wir das Ergebnis bekommen, was wir haben wollen. Wir können aber nicht erklären wieso das NN sich für etwas entschieden hat.
Und angesichts der Tatsache, das es durchaus Moeglichkeiten gibt, deep learning Verfahren mit relativ simplen Mechanismen auszuhebeln, die aus einem Panda eine Schildkroete machen, ohne das der Mensch diesem Irrtum unterliegt, scheint mir das doch durchaus gut verstanden, welche Teile eines NNs was machen, und wie man das zur Manipulation nutzen kann.