# taz.de -- Künstliche Intelligenz erzählt Quatsch: Keine Halluzination, sondern Bullshit
       
       > Wenn KI-Chatbots falsche Dinge erzählen, sagt man, dass sie
       > halluzinieren. Eine neue Studie untersucht, warum dieser Begriff das
       > Problem verfehlt.
       
 (IMG) Bild: KI-Chatbots – wer blickt da noch durch, aber wenn sie falsche Dinge erzählen, sagt man, dass sie halluzinieren Das ist Quatsch
       
       Neue Technologie erfordert neue Sprache. KI-Chatbots wie ChatGPT
       umschreiben wir mangels besserer Alternativen mit Begriffen wie
       [1][Intelligenz oder gar Bewusstsein]. Wenn Software aber erfundene Fakten
       präsentiert, nennen wir das eine Halluzination. Tech-Firmen wie Meta und
       Google haben diese Bezeichnung während des KI-Booms der vergangenen Jahre
       popularisiert.
       
       ## Die Studie
       
       [2][Ein kürzlich erschienenes Paper] warnt nun vor dieser Begrifflichkeit
       und ihren Implikationen. Sie schaffe ein falsches Bild der Kompetenzen von
       KI-Chatbots. Die [3][Rede vom Halluzinieren] suggeriere, dass sie Fakten
       wahrnehmen würden, diese aber falsch interpretierten. Doch die Maschinen
       nehmen nicht wahr. Sie simulieren, ohne Bezug zur außersprachlichen
       Wirklichkeit, das menschliche Sprechen. So ist ihr Ziel vielmehr,
       überzeugend zu klingen, als präzise zu sein. Darum postulieren die
       Forschenden: [4][ChatGPT] ist Bullshit.
       
       Bullshit ist nach dem Philosophen Harry G. Frankfurt alles, was
       gleichgültig gegenüber der Wahrheit geäußert wird. Im Gegensatz zur Lüge,
       die absichtlich einen Sachverhalt verdecken soll, ist Bullshit die Wahrheit
       schlicht egal. Die Verwendung von gut klingenden Wörtern und floskelhaften
       Formulierungen vermittelt etwa Fachkenntnis, wo keine ist. Und statt
       Aussagen zu revidieren, werden Fakten erfunden.
       
       Das Forschungsteam untersuchte das Design der [5][Chatbots] vor diesem
       Hintergrund. Die Programme funktionieren auf der Basis von Large Language
       Models, welche mittels immenser Textmengen statistische Modelle von Sprache
       anfertigen. Sie berechnen wahrscheinliche Abfolgen von Wörtern. Hierfür ist
       keine Kenntnis ihrer Bedeutung nötig. Sie ist gar nicht vorhanden. Die Bots
       produzieren zwar überzeugend und fundiert klingende Äußerungen, benötigen
       dafür aber weder logisches Denkvermögen, noch einen Zugriff auf die von
       Menschen geteilte Realität. Ihre Aussagen sind, wenn überhaupt, zufällig
       wahr. Fehlaussagen und erfundene Fakten sind daher fester Bestandteil von
       Bots wie ChatGPT.
       
       ## Was bringt’s?
       
       Die Sprache, die wir zur Beschreibung von KI verwenden, beeinflusst unsere
       Wahrnehmung von ihr. PolitikerInnen, InvestorInnen und die Öffentlichkeit
       beurteilen den Einsatz der neuen Technologie nicht mit sachkundigem
       Verständnis der Programme. Breitenwirksame Bilder wie die Metapher der
       Halluzination schaffen deshalb folgenschwere Missverständnisse. Die Studie
       weist darauf hin und schlägt vor, die kognitiven Kompetenzen der
       KI-Chatbots vorsichtiger zu formulieren. Ihr Umgang mit Fakten muss
       kritischer begutachtet werden, wenn die Maschine mehr und mehr menschliche
       Hirnleistung ersetzt.
       
       Auch AnwenderInnen sind beim Umgang mit Fakten gefragt. ChatGPT ist noch
       keine zwei Jahre alt und arbeitet ganz erfolgreich. Dem Menschen ist
       Bullshit halt oft gut genug.
       
       10 Jul 2024
       
       ## LINKS
       
 (DIR) [1] /Europarat-verhandelt-Abkommen/!5941771
 (DIR) [2] https://link.springer.com/article/10.1007/s10676-024-09775-5
 (DIR) [3] /ChatGPT-Identitaetsklau/!6006995
 (DIR) [4] /Kuenstliche-Intelligenz/!5948779
 (DIR) [5] /Chatbots-enttarnen/!6002321
       
       ## AUTOREN
       
 (DIR) Nathan Pulver
       
       ## TAGS
       
 (DIR) wochentaz
 (DIR) Zukunft
 (DIR) Schwerpunkt Künstliche Intelligenz
 (DIR) wochentaz
 (DIR) Fake News
 (DIR) Schwerpunkt Künstliche Intelligenz
 (DIR) Bot
       
       ## ARTIKEL ZUM THEMA
       
 (DIR) Cognitive Offloading: Automatisierte Vergesslichkeit
       
       Wir nutzen Navis und fragen ChatGPT nach Rezepten. Das kann zu weniger
       kognitiver Leistung führen. Doch wie können wir die Helfer produktiv
       einsetzen?
       
 (DIR) ChatGPT-Identitätsklau: Wenn Software zu träumen beginnt
       
       ChatGPT habe ihm seine Identität geklaut, sagt Sebastian Schnitzenbaumer.
       Er will die KI-Firma verklagen. Ein Fall, der ins Grundsätzliche weist.
       
 (DIR) Künstliche Intelligenz: ChatGPT wird dümmer
       
       Forscher*innen der Stanford Universität und der UC Berkeley haben
       Antworten von ChatGPT untersucht. Ihre Erkenntnis: Das System schwächelt.
       
 (DIR) Künstliche Intelligenz via ChatGPT: Alles verändert?
       
       Eine KI, die für uns Texte schreibt? Klingt toll. Und ist inzwischen
       Wirklichkeit. ChatGPT ist lustig, eloquent – und gefährlich.