chatGPT-Hinweise

Wenn du dir nicht sicher bist, in welchem der anderen Foren du die Frage stellen sollst, dann bist du hier im Forum für allgemeine Fragen sicher richtig.
Antworten
hubertgrassmann
User
Beiträge: 61
Registriert: Montag 26. Dezember 2022, 14:53

Ich habe für die Sprachausgabe win32com.client benutzt; chatGPT hat auf Anfrage pyttsx3 empfolen und Installitiationshinweise gegeben.
Das war völlig korekt.
hubertgrassmann
User
Beiträge: 61
Registriert: Montag 26. Dezember 2022, 14:53

bis auf mein fehlendes r
hubertgrassmann
User
Beiträge: 61
Registriert: Montag 26. Dezember 2022, 14:53

Und wenn ich einen englischen Text eingebe, antwortet es auf englisch. Ist da AI im Gange? Französisch klappt allerdings nicht.
Benutzeravatar
Kebap
User
Beiträge: 687
Registriert: Dienstag 15. November 2011, 14:20
Wohnort: Dortmund

Das, was du AI nennst, nenne ich "Textvervollständigung", denn diese Programme basieren auf Statistiken, die aus einer Vielzahl von Texten berechnen, wie ein Text vermutlich wahrscheinlich fortgesetzt werden würde.
Wenn darin jemand auf Englisch gefragt hatte, wird die Antwort wahrscheinlich ebenfalls auf Englisch gegeben worden sein, und so tut ChatGPT dasselbe.
Wenn die Trainingsdaten keine französischen Texte enthielten, dann wird das nicht so gut funktionieren.
Ich habe allerdings auch schon spanische und japanische Antworten provozieren können, also vielleicht testest du einfach weiter.
MorgenGrauen: 1 Welt, 8 Rassen, 13 Gilden, >250 Abenteuer, >5000 Waffen & Rüstungen,
>7000 NPC, >16000 Räume, >200 freiwillige Programmierer, nur Text, viel Spaß, seit 1992.
Benutzeravatar
kbr
User
Beiträge: 1487
Registriert: Mittwoch 15. Oktober 2008, 09:27

hubertgrassmann hat geschrieben: Freitag 26. Mai 2023, 17:11 chatGPT hat auf Anfrage pyttsx3 empfolen und Installitiationshinweise gegeben.
Das war völlig korekt.
Trotz deiner Erfahrung sei dennoch vorsichtig mit den Antworten. Ich hatte für etwas, das ich selten nutze, nicht mehr die korrekte Syntax in Erinnerung und hatte kurzerhand dann chatGPT bemüht. Die Antwort sah völlig plausibel aus, funktionierte aber nicht, denn die Syntax war falsch. chatGPT gibt nicht zu etwas nicht zu wissen, sondern beginnt statt dessen zu "halluzinieren". Eine Bezeichnung, die ich sehr treffend finde.
Benutzeravatar
__blackjack__
User
Beiträge: 13110
Registriert: Samstag 2. Juni 2018, 10:21
Wohnort: 127.0.0.1
Kontaktdaten:

Wobei es diesen Punkt zwischen ChatGPT weiss etwas oder auch nicht, gar nicht gibt. Das ”halluziniert” *immer*, nur halt bei genug Lernmaterial zu einem Thema mit grösserer Wahrscheinlichkeit ”richtig”. Das Programm kann also auch gar nicht zugeben, dass es etwas nicht weiss, weil es das gar nicht weiss. 🤓
„All religions are the same: religion is basically guilt, with different holidays.” — Cathy Ladman
Benutzeravatar
kbr
User
Beiträge: 1487
Registriert: Mittwoch 15. Oktober 2008, 09:27

__blackjack__ hat geschrieben: Freitag 9. Juni 2023, 12:09Das Programm kann also auch gar nicht zugeben, dass es etwas nicht weiss, weil es das gar nicht weiss. 🤓
Richtig – aber wer weiß das schon ... 8)
nezzcarth
User
Beiträge: 1635
Registriert: Samstag 16. April 2011, 12:47

kbr hat geschrieben: Freitag 9. Juni 2023, 12:12 Richtig – aber wer weiß das schon ... 8)
Wer weiß, ob nicht auch Texte zu Sokrates unter ChatGPTs Trainingsdaten waren ;)
Benutzeravatar
/me
User
Beiträge: 3555
Registriert: Donnerstag 25. Juni 2009, 14:40
Wohnort: Bonn

kbr hat geschrieben: Freitag 9. Juni 2023, 12:02 Die Antwort sah völlig plausibel aus, funktionierte aber nicht, denn die Syntax war falsch. chatGPT gibt nicht zu etwas nicht zu wissen, sondern beginnt statt dessen zu "halluzinieren".
Für den Namen der Straße, in der ich wohne, hat ChatGPT mir ursprünglich drei unterschiedliche und falsche Antworten zur Namensherkunft gegeben. Nach einiger Zeit hat es dann wohl ein Update gegeben, denn dann kam nur noch eine Antwort, die aber (natürlich) immer noch falsch war. Inzwischen sagt mir ChatGPT immerhin, dass es die Antwort nicht weiß.

Mit anderen Abfragen kann ich aber noch problemlos Halluzinationen hervorrufen und das auch bei Programmierfragen.

//Edit: Gerade ausprobiert: Stelle ich die Abfrage nach dem Straßennamen etwas anders, dann werden wieder Antworten erfunden. :(
Antworten