Nein, nicht wirklich. Chatgpt wurde auf viele Sprachen trainiert. Aber es “denkt” nicht unbedingt in einer Sprache, in sofern, dass es explizit von und in diese übersetzt.
Das Hauptproblem ist, das chatgpt Antworten eher ratet als logische Anweisungen zu befolgen
Nein, es bastelt einfach Sachen zusammen, ohne den Inhalt wirklich zu wissen. Das funktioniert bei lexikographischen und mathematischen Dingen so gar nicht gut, weil ChatGPT natürliche Sprache generiert und die ist inhärent schwammig und doppeldeutig, also genau das Gegenteil einer logisch konstruierten Sprache.
Hängt es nicht damit zusammen, dass ChatGTP auf Englisch „denkt“ und die Antworten übersetzt werden?
Nein, nicht wirklich. Chatgpt wurde auf viele Sprachen trainiert. Aber es “denkt” nicht unbedingt in einer Sprache, in sofern, dass es explizit von und in diese übersetzt. Das Hauptproblem ist, das chatgpt Antworten eher ratet als logische Anweisungen zu befolgen
Nein, es bastelt einfach Sachen zusammen, ohne den Inhalt wirklich zu wissen. Das funktioniert bei lexikographischen und mathematischen Dingen so gar nicht gut, weil ChatGPT natürliche Sprache generiert und die ist inhärent schwammig und doppeldeutig, also genau das Gegenteil einer logisch konstruierten Sprache.
Macht nicht wirklich Sinn, da weder “äussern” noch “bekanntgeben” auf Englisch mit “L” anfangen.