Ich habe für die Sprachausgabe win32com.client benutzt; chatGPT hat auf Anfrage pyttsx3 empfolen und Installitiationshinweise gegeben.
Das war völlig korekt.
chatGPT-Hinweise
-
- User
- Beiträge: 61
- Registriert: Montag 26. Dezember 2022, 14:53
bis auf mein fehlendes r
-
- User
- Beiträge: 61
- Registriert: Montag 26. Dezember 2022, 14:53
Und wenn ich einen englischen Text eingebe, antwortet es auf englisch. Ist da AI im Gange? Französisch klappt allerdings nicht.
Das, was du AI nennst, nenne ich "Textvervollständigung", denn diese Programme basieren auf Statistiken, die aus einer Vielzahl von Texten berechnen, wie ein Text vermutlich wahrscheinlich fortgesetzt werden würde.
Wenn darin jemand auf Englisch gefragt hatte, wird die Antwort wahrscheinlich ebenfalls auf Englisch gegeben worden sein, und so tut ChatGPT dasselbe.
Wenn die Trainingsdaten keine französischen Texte enthielten, dann wird das nicht so gut funktionieren.
Ich habe allerdings auch schon spanische und japanische Antworten provozieren können, also vielleicht testest du einfach weiter.
Wenn darin jemand auf Englisch gefragt hatte, wird die Antwort wahrscheinlich ebenfalls auf Englisch gegeben worden sein, und so tut ChatGPT dasselbe.
Wenn die Trainingsdaten keine französischen Texte enthielten, dann wird das nicht so gut funktionieren.
Ich habe allerdings auch schon spanische und japanische Antworten provozieren können, also vielleicht testest du einfach weiter.
MorgenGrauen: 1 Welt, 8 Rassen, 13 Gilden, >250 Abenteuer, >5000 Waffen & Rüstungen,
>7000 NPC, >16000 Räume, >200 freiwillige Programmierer, nur Text, viel Spaß, seit 1992.
>7000 NPC, >16000 Räume, >200 freiwillige Programmierer, nur Text, viel Spaß, seit 1992.
Trotz deiner Erfahrung sei dennoch vorsichtig mit den Antworten. Ich hatte für etwas, das ich selten nutze, nicht mehr die korrekte Syntax in Erinnerung und hatte kurzerhand dann chatGPT bemüht. Die Antwort sah völlig plausibel aus, funktionierte aber nicht, denn die Syntax war falsch. chatGPT gibt nicht zu etwas nicht zu wissen, sondern beginnt statt dessen zu "halluzinieren". Eine Bezeichnung, die ich sehr treffend finde.hubertgrassmann hat geschrieben: ↑Freitag 26. Mai 2023, 17:11 chatGPT hat auf Anfrage pyttsx3 empfolen und Installitiationshinweise gegeben.
Das war völlig korekt.
- __blackjack__
- User
- Beiträge: 13931
- Registriert: Samstag 2. Juni 2018, 10:21
- Wohnort: 127.0.0.1
- Kontaktdaten:
Wobei es diesen Punkt zwischen ChatGPT weiss etwas oder auch nicht, gar nicht gibt. Das ”halluziniert” *immer*, nur halt bei genug Lernmaterial zu einem Thema mit grösserer Wahrscheinlichkeit ”richtig”. Das Programm kann also auch gar nicht zugeben, dass es etwas nicht weiss, weil es das gar nicht weiss. 
“Java is a DSL to transform big Xml documents into long exception stack traces.”
— Scott Bellware
— Scott Bellware
Richtig – aber wer weiß das schon ...__blackjack__ hat geschrieben: ↑Freitag 9. Juni 2023, 12:09Das Programm kann also auch gar nicht zugeben, dass es etwas nicht weiss, weil es das gar nicht weiss.![]()

Für den Namen der Straße, in der ich wohne, hat ChatGPT mir ursprünglich drei unterschiedliche und falsche Antworten zur Namensherkunft gegeben. Nach einiger Zeit hat es dann wohl ein Update gegeben, denn dann kam nur noch eine Antwort, die aber (natürlich) immer noch falsch war. Inzwischen sagt mir ChatGPT immerhin, dass es die Antwort nicht weiß.
Mit anderen Abfragen kann ich aber noch problemlos Halluzinationen hervorrufen und das auch bei Programmierfragen.
//Edit: Gerade ausprobiert: Stelle ich die Abfrage nach dem Straßennamen etwas anders, dann werden wieder Antworten erfunden.
