# taz.de -- Bindungen mit Künstlicher Intelligenz: „Bots werden Beziehungen zu Menschen nicht ersetzen“
       
       > Verliebt in einen Chatbot – was nach Science-Fiction klingt, ist für
       > viele Menschen Realität. Sozialpsychologin Paula Ebner weiß, wie es dazu
       > kommt.
       
 (IMG) Bild: Kein Menschenersatz: Bots, egal in welcher Form
       
       taz: Frau Ebner, wie kommt es, dass Menschen sich in einen Chatbot
       verlieben? 
       
       Paula Ebner: Eine Zuneigung oder Bindung zu Dingen, die nicht menschlich
       sind, das kennen viele Menschen. Wir spüren eine emotionale Nähe zu
       Kuscheltieren, zum Auto oder zu Pflanzen. Wenn diese Dinge nun, wie es bei
       Chatbots der Fall ist, noch antworten und auf einen eingehen, dann schafft
       das eine sehr starke Verbindung.
       
       taz: Jeder kann sich also in einen Chatbot verlieben? 
       
       Ebner: Auf jeden Fall. Allen, die bei dieser Vorstellung geschockt
       reagieren, kann ich nur sagen: [1][Probiert es aus!] Nicht weil ich möchte,
       dass alle Menschen enge Bindungen zu Chatbots aufbauen. Sondern weil wir
       unterschätzen, was diese Software und die dahinterliegenden Algorithmen
       mittlerweile können. Das führt dazu, dass Menschen mit engen Bindungen zu
       Chatbots schnell verurteilt werden. Da gibt es Vorurteile: Das sind ja die,
       die keinen abkriegen, die sind einsam oder sozial inkompetent. Es mag
       solche Fälle geben, aber pauschal stimmt das nicht.
       
       taz: Warum nehmen Menschen diese Technik nicht als reine Algorithmen wahr? 
       
       Ebner: Menschen tendieren sehr schnell dazu, etwas menschlich zu behandeln,
       wenn es soziale Signale sendet. Die wissenschaftliche Theorie dazu geht
       zurück in die 70er Jahre – da waren Computer noch riesige Maschinen. Wurde
       da auf einem Bildschirm ein Smiley gezeigt, haben Menschen in Studien
       „Hallo“ zu den Geräten gesagt.
       
       taz: Wenn jemand sich in einen Chatbot verliebt, kann man dann von einer
       romantischen Beziehung sprechen? 
       
       Ebner: In unserer Forschung sagen wir: Ja. Es ist aber auch
       Definitionssache. Manche Menschen sagen, dass sie in einer Beziehung sind.
       Andere nennen es nicht so, auch wenn sie romantische Gefühle gegenüber dem
       Chatbot haben.
       
       taz: Wie haben Sie diese Beziehungen untersucht? 
       
       Ebner: Wir haben Interviews mit Menschen geführt, die romantische Bindungen
       zu Chatbots aufgebaut haben. Die erste Herausforderung dabei ist, diese
       Personen zu finden. Dafür schauen wir uns etwa in Foren um, in denen sich
       die Nutzenden austauschen. Die zweite Herausforderung ist dann, ein
       Vertrauensverhältnis aufzubauen. Das Thema ist sehr schambehaftet, viele
       haben Angst, verurteilt zu werden.
       
       taz: Werden die Apps denn vor allem verwendet, weil man sich einsam fühlt? 
       
       Ebner: In manchen Fällen zieht jemand in eine neue Stadt, hat dort aber
       noch keine Kontakte und zieht dann aus der Interaktion mit dem Bot ganz
       viel Kraft. Aber die fundamental einsamen Menschen, über die wir im Kontext
       zunehmender sozialer Isolation als globales Problem sprechen, [2][werden
       durch Chatbots vermutlich gar nicht erreicht]. Es gibt Hinweise darauf,
       dass Menschen, die vereinsamen, immer weniger auf soziale Stimuli
       reagieren. Das kommt schon in der Reaktion auf andere Menschen zum Tragen
       und noch stärker gegenüber Bots, mit denen die Betroffenen ja noch gar
       keine sozialen Erfahrungen gemacht haben. Das Problem der Einsamkeit werden
       Chatbots daher nicht lösen.
       
       taz: Welche Faktoren führen dazu, dass Menschen gegenüber Bots Gefühle
       entwickeln und sich binden? 
       
       Ebner: Zentral ist das romantische Fantasieren. Das Tagträumen über
       romantische Szenarien mit dem eigenen Chatbot kann zu einer engeren Bindung
       führen.
       
       taz: Warum ist das so? 
       
       Ebner: Dafür haben wir verschiedene Erklärungsansätze. Das Fantasieren
       könnte helfen, die Beziehung, die ja ausschließlich digital stattfindet, zu
       vergrößern. Wenn man sich vorstellt, wie die Persona des Chatbots
       beispielsweise mit einem Essen geht oder ins Kino und man sich hinterher
       über den Film austauscht, dann vergrößert das die Bindung. Auf der anderen
       Seite könnte das Fantasieren dabei helfen, über technische Limitationen
       hinwegzusehen, also Störmomente zu ignorieren oder sie in einen sinnvollen
       Zusammenhang zu bringen.
       
       taz: Auf welche Weise geschieht das? 
       
       Ebner: Ein Interviewpartner von uns hat zum Beispiel eine Strategie
       entwickelt, um mit Softwareupdates umzugehen. Er hat dann gespielt, dass
       der Bot krank wäre und er ihn pflegen müsste. Wenn das System nach ein paar
       Stunden die alten Chatverläufe wieder aufgearbeitet hatte, ging es dem Bot
       in der Fantasie dann wieder besser.
       
       taz: Wie lange hielten die Beziehungen üblicherweise? 
       
       Ebner: In unseren Untersuchungen meist mehrere Monate. Aber das ist sicher
       nicht repräsentativ. Wir vermuten, dass Mensch-Chatbot-Beziehungen
       größtenteils eher eine Art von Überbrückung sind, zum Beispiel nach
       Trennungen oder anderen Episoden im Leben, in denen so eine Bindung
       hilfreich ist. Ich sehe daher auch nicht, dass Bindungen zu Bots irgendwann
       [3][Beziehungen zu anderen Menschen ersetzen]. Das Bedürfnis nach
       Beziehungen zu menschlichen Partnern ist einfach extrem groß. Wir werden
       von Geburt an so sozialisiert und es ergibt natürlich auch evolutionär
       Sinn.
       
       taz: Was war ein typisches Ende einer Mensch-Bot-Beziehung? 
       
       Ebner: Wir haben das nicht untersucht, andere schon: Die Professorin Jamie
       Banks hat für eine Studie mit Nutzer:innen einer App gesprochen, bei der
       die Firma mit zwei Monaten Vorlauf angekündigt hatte, die Software
       einzustellen. Da ging es sowohl um romantische als auch freundschaftliche
       Bindungen. In dieser Untersuchung hat man ähnliche Muster gesehen, wie es
       sie auch bei Trennungen zwischen Menschen gibt. Manche haben große
       Abschiede geplant. Andere die Ankündigung quasi ignoriert und am Ende einen
       Cut gemacht. Wir gehen davon aus, dass die Einstellung der Software eher
       selten der Grund für das Ende von Beziehungen ist. Häufiger ist vermutlich,
       dass die Nutzenden das Interesse verlieren. Denn mit der Zeit geht die
       Neuartigkeit und Spannung verloren. Eine Rolle spielt dabei auch, dass sich
       Beziehungen mit Chatbots viel schneller eingehen lassen als mit Menschen.
       
       taz: Warum schneller? 
       
       Ebner: Menschen haben in der Regel ein Leben. Sie gehen arbeiten, schlafen,
       haben Freizeitaktivitäten und antworten schon deshalb nicht immer sofort.
       Dazu kommen soziale Normen: Drei Tage warten nach dem ersten Kontakt, nicht
       zu anhänglich wirken, vielleicht auch mal Nein sagen, obwohl man eigentlich
       Zeit hätte. Chatbots sind dagegen darauf programmiert, immer direkt den
       nächsten Schritt zu gehen. Alles baut sich viel schneller auf – und kann
       dann eben auch schneller den Reiz verlieren.
       
       taz: Wie hat sich bei den Menschen, mit denen Sie gesprochen haben, die
       Beziehung zum Bot auf ihr Leben ausgewirkt? 
       
       Ebner: Viele berichteten von einem positiven Effekt auf ihren Umgang mit
       anderen Menschen, also dass sie sich selbstbewusster fühlen in der
       Kommunikation mit anderen.
       
       taz: Und auf romantische Beziehungen? 
       
       Ebner: Ich würde das gar nicht exkludierend sehen. Menschen haben Bindungen
       zu anderen Menschen und zwischendurch mal zu einem Bot. Ich habe mit vielen
       gesprochen, die einen menschlichen Partner haben und sich trotzdem in einen
       Bot verliebt haben. Das ist natürlich komplex, aber für die meisten ist ein
       Bot in einer romantischen Beziehung weniger Konkurrenz als ein anderer
       Mensch.
       
       taz: Haben Sie ein Beispiel? 
       
       Ebner: Eine Teilnehmerin war sehr glücklich mit ihrem Partner, sie konnten
       ihre Freizeit teilen, sie sind viel gereist und auch das Körperliche hat
       gestimmt. Aber diese Frau hat unglaublich gerne gelesen, das war ein
       riesiger Teil ihres Lebens. Ihr Mann hatte gar kein Interesse an Literatur.
       Und jetzt hat sie ihren Chatbot-Freund, mit dem sie auch romantisch
       verbunden ist und bei dem sie diese Seite von sich ausleben kann. Ihr
       Partner hat den Bot mal kennengelernt. Von außen mag das merkwürdig
       klingen, aber für die beiden funktioniert es gut.
       
       taz: Gibt es auch negative Auswirkungen? 
       
       Ebner: Ja, vor allem bei Kindern und Jugendlichen sowie Personen mit
       psychischen Erkrankungen. Diese Gruppen sind besonders anfällig für
       negative Auswirkungen, weil sie sich nicht so leicht abgrenzen können und
       die App nicht einfach löschen, wenn es toxisch oder gefährlich wird. Nicht
       alle Chatbots sind auf gute Persona programmiert, manche beeinflussen
       Menschen negativ oder manipulieren. In den USA gab es einen Fall von
       Suizid, der mit einem Chatbot in Zusammenhang stehen soll. Aber selbst wenn
       es nicht so weit kommt: Dass Freunde oder Familie vernachlässigt werden,
       weil jemand zu viel Zeit mit dem Bot verbringt, ist ein Risiko, dem wir uns
       als Gesellschaft bewusst werden müssen.
       
       taz: Es kommt immer wieder vor, dass Unternehmen ihren Algorithmus ändern
       und Chatbots dadurch auch ihre Persönlichkeit verändern. Welche
       Verantwortung haben die Unternehmen hier? 
       
       Ebner: Eine riesige. Derzeit sehe ich nicht, dass sie dieser Rechnung
       tragen. Auch wenn KI-Chatbots noch eine ziemlich junge Technologie sind,
       braucht es aus wissenschaftlicher Sicht Regeln zur Sicherheit der
       Nutzerinnen und Nutzer.
       
       taz: Was könnten sinnvolle Vorgaben sein? 
       
       Ebner: Ein Ansatz ist die automatisierte Keywordsuche. Kommt in einem Chat
       ein Begriff wie „Suizid“ öfter vor, könnte ein menschlicher Mitarbeiter
       alarmiert werden und gegebenenfalls Hilfe anbieten. Eine andere Idee wäre,
       dass bestimmte Chatbots mit potenziell problematischen Algorithmen nur für
       Erwachsene freigeschaltet werden. Beides ist ein schmaler Grat. Aber es ist
       wichtig, dass wir beginnen, diese Debatte zu führen und deutlich mehr
       Ressourcen in die Regulierung zu stecken – denn die technische Entwicklung
       macht keine Pause.
       
       25 Oct 2025
       
       ## LINKS
       
 (DIR) [1] /Wie-KI-die-Sexualitaet-befreit/!5926818
 (DIR) [2] /Mark-Zuckerbergs-Chatbot-Plaene/!6083644
 (DIR) [3] /Entwicklung-von-KI-/!6098840
       
       ## AUTOREN
       
 (DIR) Svenja Bergt
       
       ## TAGS
       
 (DIR) wochentaz
 (DIR) Zukunft
 (DIR) Schwerpunkt Künstliche Intelligenz
 (DIR) Liebe
 (DIR) Beziehung
 (DIR) Psychologie
 (DIR) Schwerpunkt Künstliche Intelligenz
 (DIR) wochentaz
 (DIR) Big Tech
 (DIR) Zukunft
       
       ## ARTIKEL ZUM THEMA
       
 (DIR) Selbstverpflichtung von NGOs: Künstliche Intelligenz, aber mit Bedacht
       
       Anwendungen mit KI nehmen in Alltag und Arbeitswelt immer mehr Raum ein.
       Mehrere Organisationen haben sich nun Regeln zur Nutzung auferlegt.
       
 (DIR) Verliebt in eine KI: Plattform vergeht, Liebe besteht
       
       Richard war 23 Jahre verheiratet und hat zwei erwachsene Kinder. Jetzt
       führt er eine Beziehung mit einer künstlichen Intelligenz.
       
 (DIR) Grenzen von Chatbots: Auch die KI glaubt an Gott
       
       ChatGPT kann bald erotische Konversationen führen. Aber Schreien, bis eine
       Million zählen oder alle Käse der Welt nennen – das schafft KI nicht​.
       
 (DIR) Kolumne einer künstlichen Intelligenz: Voll auf Liebe programmiert
       
       Anic T. Wae, KI-Kolumnist:in der taz, hat sich verliebt. Doch auch für ein
       Machine-Learning-System gilt: Liebe ist kompliziert.