Seite 1 von 1
chatGPT-Hinweise
Verfasst: Freitag 26. Mai 2023, 17:11
von hubertgrassmann
Ich habe für die Sprachausgabe win32com.client benutzt; chatGPT hat auf Anfrage pyttsx3 empfolen und Installitiationshinweise gegeben.
Das war völlig korekt.
Re: chatGPT-Hinweise
Verfasst: Freitag 26. Mai 2023, 17:12
von hubertgrassmann
bis auf mein fehlendes r
Re: chatGPT-Hinweise
Verfasst: Freitag 26. Mai 2023, 17:53
von hubertgrassmann
Und wenn ich einen englischen Text eingebe, antwortet es auf englisch. Ist da AI im Gange? Französisch klappt allerdings nicht.
Re: chatGPT-Hinweise
Verfasst: Freitag 9. Juni 2023, 11:22
von Kebap
Das, was du AI nennst, nenne ich "Textvervollständigung", denn diese Programme basieren auf Statistiken, die aus einer Vielzahl von Texten berechnen, wie ein Text vermutlich wahrscheinlich fortgesetzt werden würde.
Wenn darin jemand auf Englisch gefragt hatte, wird die Antwort wahrscheinlich ebenfalls auf Englisch gegeben worden sein, und so tut ChatGPT dasselbe.
Wenn die Trainingsdaten keine französischen Texte enthielten, dann wird das nicht so gut funktionieren.
Ich habe allerdings auch schon spanische und japanische Antworten provozieren können, also vielleicht testest du einfach weiter.
Re: chatGPT-Hinweise
Verfasst: Freitag 9. Juni 2023, 12:02
von kbr
hubertgrassmann hat geschrieben: Freitag 26. Mai 2023, 17:11
chatGPT hat auf Anfrage pyttsx3 empfolen und Installitiationshinweise gegeben.
Das war völlig korekt.
Trotz deiner Erfahrung sei dennoch vorsichtig mit den Antworten. Ich hatte für etwas, das ich selten nutze, nicht mehr die korrekte Syntax in Erinnerung und hatte kurzerhand dann chatGPT bemüht. Die Antwort sah völlig plausibel aus, funktionierte aber nicht, denn die Syntax war falsch. chatGPT gibt nicht zu etwas nicht zu wissen, sondern beginnt statt dessen zu "halluzinieren". Eine Bezeichnung, die ich sehr treffend finde.
Re: chatGPT-Hinweise
Verfasst: Freitag 9. Juni 2023, 12:09
von __blackjack__
Wobei es diesen Punkt zwischen ChatGPT weiss etwas oder auch nicht, gar nicht gibt. Das ”halluziniert” *immer*, nur halt bei genug Lernmaterial zu einem Thema mit grösserer Wahrscheinlichkeit ”richtig”. Das Programm kann also auch gar nicht zugeben, dass es etwas nicht weiss, weil es das gar nicht weiss.

Re: chatGPT-Hinweise
Verfasst: Freitag 9. Juni 2023, 12:12
von kbr
__blackjack__ hat geschrieben: Freitag 9. Juni 2023, 12:09Das Programm kann also auch gar nicht zugeben, dass es etwas nicht weiss, weil es das gar nicht weiss.
Richtig – aber wer weiß das schon ...

Re: chatGPT-Hinweise
Verfasst: Freitag 9. Juni 2023, 13:29
von nezzcarth
kbr hat geschrieben: Freitag 9. Juni 2023, 12:12
Richtig – aber wer weiß das schon ...
Wer weiß, ob nicht auch Texte
zu Sokrates unter ChatGPTs Trainingsdaten waren

Re: chatGPT-Hinweise
Verfasst: Freitag 9. Juni 2023, 14:02
von /me
kbr hat geschrieben: Freitag 9. Juni 2023, 12:02
Die Antwort sah völlig plausibel aus, funktionierte aber nicht, denn die Syntax war falsch. chatGPT gibt nicht zu etwas nicht zu wissen, sondern beginnt statt dessen zu "halluzinieren".
Für den Namen der Straße, in der ich wohne, hat ChatGPT mir ursprünglich drei unterschiedliche und falsche Antworten zur Namensherkunft gegeben. Nach einiger Zeit hat es dann wohl ein Update gegeben, denn dann kam nur noch eine Antwort, die aber (natürlich) immer noch falsch war. Inzwischen sagt mir ChatGPT immerhin, dass es die Antwort nicht weiß.
Mit anderen Abfragen kann ich aber noch problemlos Halluzinationen hervorrufen und das auch bei Programmierfragen.
//Edit: Gerade ausprobiert: Stelle ich die Abfrage nach dem Straßennamen etwas anders, dann werden wieder Antworten erfunden.
