# taz.de -- Forscher zu KI-Chatbots: „Man lagert das Denken aus“
       
       > Wird dümmer, wer KI-Chatbots verwendet? Nicht unbedingt, sagt der
       > Forscher Michael Gerlich. Zwar sei die Gefahr da – aber es gibt eine
       > Gegenstrategie.
       
 (IMG) Bild: Denken Sie noch oder chillen Sie schon? Schafe auf dem Deich vor dem Google Datacenter im niederländischen Eemshaven
       
       taz: Herr Gerlich, macht die Nutzung von KI-Chatbots wie ChatGPT dumm? 
       
       Michael Gerlich: Generell macht die Nutzung nicht dumm. Allerdings lädt
       generative KI, also Tools wie ChatGPT oder Microsofts Copilot, dazu ein,
       für den Menschen zu denken. Wenn man diese Dienste falsch nutzt, kann es
       dazu führen, dass man immer weniger denkt. Man [1][lagert das Denken aus] –
       und damit auch das kritische Denken.
       
       taz: Auslagern – wie ist das gemeint? 
       
       Gerlich: Unser Gehirn kann sich nicht alles merken. Daher vergessen wir
       Dinge und lagern auch immer mal welche aus, was nicht unbedingt schlecht
       sein muss. Ein Beispiel: Als ich jung war, gab es noch keine Mobiltelefone.
       Da musste ich mir wichtige Festnetznummern merken, falls ich jemanden
       anrufen wollte. Heute weiß ich keine Nummern mehr, die sind alle in meinem
       Telefon. Das schafft im Gehirn Raum für Wichtigeres. Aber: Mit den
       Telefonnummern lagere ich nur Daten aus.
       
       taz: Bei KI ist das anders? 
       
       Gerlich: Genau. Da werden nicht nur Daten ausgelagert, sondern ganze
       Denkprozesse. Denn die KI gibt mir Lösungen für Probleme. Den Effekt haben
       wir [2][in einer Studie untersucht]. Wir haben die Teilnehmenden gefragt:
       Was sind die Vorteile der Demokratie? Dabei sollten sie sich entweder erst
       mal selbst Gedanken machen oder die Frage direkt in einen KI-Chatbot
       eingeben. Bei Letzterem kommt ein Effekt aus der Psychologie zum Tragen,
       der Ankereffekt. Der beschreibt, dass Menschen stark von der ersten
       Information beeinflusst werden, die sie zu einer Sache bekommen.
       
       taz: Deswegen funktioniert ein Preis wie 1,99 Euro, weil sich das Gehirn
       die 1 als Anker merkt. 
       
       Gerlich: Sich dann kritisch mit dieser ersten Information
       auseinanderzusetzen, ist deutlich schwieriger. Es gibt zudem weitere
       Befunde, die in eine ähnliche Richtung weisen. Forschende am MIT in Boston
       haben die Gehirnaktivität von Menschen untersucht, die ChatGPT für das
       Schreiben eines Essays nutzten. Dabei zeigten sich zwei zentrale
       Ergebnisse: Erstens fiel die neuronale Aktivierung im Vergleich zum
       eigenständigen Arbeiten geringer aus. Zweitens erinnerten sich die
       Probanden deutlich schlechter an Inhalte, die von der KI erzeugt worden
       waren, während selbst erarbeitete Inhalte auch einige Tage später noch
       besser erinnert wurden.
       
       taz: Ab welcher Nutzungsschwelle könnten Menschen kritisches Denken
       verlernen? 
       
       Gerlich: Das kann man nicht sagen, wahrscheinlich ist es auch individuell
       unterschiedlich. Ohnehin ist nicht nur die Häufigkeit der Nutzung
       entscheidend, sondern noch ein anderer Faktor. Wenn ich bei uns in der
       Universität in Weiterbildungskursen für Menschen, die schon im Berufsleben
       stehen, frage, wofür sie generative KI einsetzen, kommt häufig die Antwort:
       für alles. Das heißt dann meist: Für alle Fragen im beruflichen und
       privaten Alltag, die man nicht mal im Vorbeigehen selbst löst. Und da kommt
       man in einen Bereich, in dem man sich Gedanken machen sollte.
       
       taz: Sie haben in Ihrer Forschung festgestellt: Um die Leistungsfähigkeit
       des Gehirns zu erhalten, sollten wir KI anders nutzen. Was ist der Trick? 
       
       Gerlich: Der Trick ist, die kognitive Auslagerung, also das Abgeben der
       Denkprozesse an die KI, zu vermeiden. Dafür müssen wir nicht auf die Hilfe
       der KI verzichten, aber wir müssen [3][erst mal selber denken]. Wenn wir
       damit eine Grundlage haben, dann können wir die KI als eine Art
       Sparringpartner nutzen. Man muss sie etwa auffordern, Gegenargumente für
       die eigene Argumentation zu suchen. Oder Aussagen zu kritisieren.
       
       taz: Durch die Nutzung von KI [4][versprechen sich viele Menschen einen
       Effizienzgewinn]. Der sollte dann zumindest kleiner ausfallen. 
       
       Gerlich: Natürlich dauert unser Ansatz länger. Dafür bringt er nicht nur
       deutlich bessere Ergebnisse, als wenn man nur die Frage an die KI
       weiterleitet – sie sind auch besser, als wenn man nur selbst denkt. Denn
       man ist quasi bis zum eigenen Gedankenmaximum gegangen und kann dieses dann
       mithilfe der KI erweitern. Damit erhält man neue Denkansätze, erweitert den
       eigenen gedanklichen Suchraum und vermeidet, weil man sich schon mit dem
       Thema auseinandergesetzt hat, den Ankereffekt. So schärft man im Ergebnis
       das eigene kritische Denken.
       
       taz: Die wenigsten Menschen werden das so machen. 
       
       Gerlich: Ich denke, dass dies bislang eher die Ausnahme ist. Die meisten
       werden in die Bequemlichkeitsfalle tappen, und dazu laden die Modelle ja
       auch ein.
       
       taz: Gibt es Bevölkerungsgruppen, für die dieses Risiko besonders groß ist? 
       
       Gerlich: Es gibt jedenfalls keine Bevölkerungsgruppe, die davor gefeit ist.
       Auch Menschen mit sehr viel Wissen und Kapazität zum kritischen Denken
       können dort hineintappen und sich einreden, dass es schon nicht so schlimm
       ist, weil sie sich ja hinterher noch kritisch damit auseinandersetzen. Aber
       ein besonders hohes Risiko gibt es natürlich in einem Umfeld, in dem es
       sehr auf Effizienz ankommt. Wenn der Druck hoch ist, etwa am Arbeitsplatz,
       dann wird die Zeit, die man eigentlich bräuchte, sich mit der KI-Antwort
       kritisch auseinanderzusetzen, als Erstes eingespart. So entsteht eine
       Vertrauensspirale: Je mehr ich die KI nutze, desto mehr vertraue ich ihr.
       Mit wachsendem Vertrauen nimmt die kognitive Auslagerung zu, während die
       kritische Auseinandersetzung abnimmt.
       
       taz: Ein Teufelskreis. 
       
       Gerlich: Genau. Es gibt natürlich noch keine Langzeitstudien. Wir können
       nicht sagen, ob Leute, die das fünf, sechs Jahre machen, dümmer werden.
       Wahrscheinlich werden wir das auch nie wissen, weil man den Faktor
       KI-Nutzung nie isolieren kann. Über einen allgemeinen Rückgang menschlicher
       kognitiver Leistungsfähigkeit wird in der Forschung diskutiert, aber hier
       wäre ich mit pauschalen Aussagen sehr vorsichtig. Belastbarer ist die
       Aussage, dass generative KI in bestimmten Nutzungskontexten kognitive
       Auslagerung fördern und damit eigenständige Denkleistung schwächen kann.
       
       taz: Das klingt dystopisch genug. 
       
       Gerlich: Es gibt jedenfalls schon Thinktanks mit dem Schwerpunkt nationale
       Sicherheit, die das Thema ernst nehmen. Denn was macht das mit einer
       Gesellschaft, wenn die Menschen ihre kognitive Leistungsfähigkeit einbüßen?
       
       taz: Gibt’ s schon Antworten? 
       
       Gerlich: Noch nicht abschließend, aber es zeichnen sich einige ab. Zum
       Beispiel lässt sich generative KI ja dadurch manipulieren, dass man
       Einfluss nimmt auf die Daten, mit denen sie trainiert wird. Wenn dazu noch
       kommt, dass viele Menschen ohnehin durch die kognitive Auslagerung das
       kritische Denken verlernen, dann kann man sich da schon Sorgen machen.
       
       taz: Wenn wir also neben dem Problem auch die Lösung kennen, aber der Weg
       dorthin einzig und allein durch Bequemlichkeit versperrt ist – was lässt
       sich tun? 
       
       Gerlich: Es gibt verschiedene Möglichkeiten. Man kann auf eine staatliche
       Regulierung dieser Dienste setzen, aber das halte ich für wenig
       wahrscheinlich. Das sind schließlich kommerzielle Dienste, die irgendwann
       mal Geld verdienen wollen. Und mal ehrlich: Wer nutzt Dienste, die einem
       das Leben weniger bequem machen? Das Einzige, was mir da einfällt, ist das
       Fitnesscenter, aber sonst geben wir doch unser Geld für Dinge aus, die
       unser Leben einfacher oder bequemer machen. Es wird also der harte Weg
       bleiben: Wir müssen als Individuen Verantwortung übernehmen.
       
       taz: Kein Lichtblick? 
       
       Gerlich: Es gibt immerhin punktuell vielversprechende Ansätze, etwa das
       niederländische EduGPT. Das ist eine generative KI, die für den
       Bildungsbereich designt ist und zwar so, dass sie keine Antworten gibt,
       sondern hilft, selbst einen Weg zu finden. In Europa ist derzeit einiges an
       KI-Modellen in Entwicklung, in der Schweiz etwa das Open-Source-Modell
       Apertus. Bei solchen Projekten sehe ich am ehesten die Chance, sie so zu
       gestalten, dass es nicht zu dieser extremen kognitiven Auslagerung kommt.
       
       taz: Was ist mit den Arbeitgebern? Generative KI einzusetzen, ist bei ihnen
       schwer in Mode. Müssten die nicht auch ein Interesse daran haben, dass ihre
       Mitarbeitenden nicht an kognitiver Leistungsfähigkeit verlieren? 
       
       Gerlich: Das sollte man meinen. Aber wir sehen bei Unternehmen nicht die
       Weiterbildungsoffensive für ihre Mitarbeitenden, die es bräuchte. Das zeigt
       sich auch an populären Ratgebertexten: „Die 10 besten Prompts, wie KI die
       Arbeit einfacher macht“ – so eine Nutzung führt zu kognitiver Auslagerung.
       Denn unsere Forschung zeigt: Lässt man sich von KI einfach die Lösung für
       ein Problem generieren, bringt das mittelmäßige Antworten – und damit
       letztlich ein mittelmäßiges Ergebnis.
       
       taz: Ist also der Effizienzgewinn, mit dem oft argumentiert wird, ein
       Märchen? 
       
       Gerlich: Nein, der ist schon da. Firmen können jetzt Dinge auf
       mittelmäßigem Niveau viel schneller erledigen. Das ist aber ein Risiko für
       die Mitarbeiter: Wer, vereinfacht gesagt, 80 Prozent seiner Arbeit an die
       KI auslagert, ersetzt sich selbst. Denn die KI ist billiger. Die
       Mitarbeiter müssten also schauen, dass sie mit KI bessere Ergebnisse
       schaffen, als es die KI alleine hinkriegen würde. Qualität schafft die KI
       nicht alleine – sondern nur mit dem Menschen und dessen kritischem Denken.
       Und eigentlich sollten auch Arbeitgeber ein Interesse daran haben, dass sie
       nicht Mittelmäßiges schneller bekommen, sondern Besseres – für das es dann
       etwas mehr Zeit braucht.
       
       24 Mar 2026
       
       ## LINKS
       
 (DIR) [1] /Kuenstliche-Intelligenz/!6110053
 (DIR) [2] https://www.mdpi.com/2306-5729/10/11/172
 (DIR) [3] /Kuenstliche-Intelligenz-versus-Menschen/!6134586
 (DIR) [4] /Studien-belegen-dass-der-Einsatz-von-KI-keine-Effizienzgewinne-in-Unternehmen-bringt/!6125562
       
       ## AUTOREN
       
 (DIR) Svenja Bergt
       
       ## TAGS
       
 (DIR) wochentaz
 (DIR) Zukunft
 (DIR) Schwerpunkt Künstliche Intelligenz
 (DIR) ChatGPT
 (DIR) Gehirn
 (DIR) Neurologie
 (DIR) Automatisierung
 (DIR) GNS
 (DIR) Reden wir darüber
 (DIR) Schwerpunkt Künstliche Intelligenz
 (DIR) wochentaz
 (DIR) ChatGPT
       
       ## ARTIKEL ZUM THEMA
       
 (DIR) KI und menschliches Denken: Illusion der Lösungsfreude
       
       KI suggeriert uns, dass es auf komplexe Fragen einfache Antworten gibt.
       Doch ihre Funktionslogik klammert die übergeordneten Zusammenhänge aus.
       
 (DIR) Cognitive Offloading: Automatisierte Vergesslichkeit
       
       Wir nutzen Navis und fragen ChatGPT nach Rezepten. Das kann zu weniger
       kognitiver Leistung führen. Doch wie können wir die Helfer produktiv
       einsetzen?
       
 (DIR) Künstliche Intelligenz: Wenn wir das Denken an die KI auslagern
       
       ChatGPT und Co. entlasten uns vom Selbstnachdenken. Das ist keine
       effiziente Modernisierung, sondern ein Angriff auf das, was uns wachsen
       lässt.