# taz.de -- Neuer Chatbot Confer: KI, aber mit Datenschutz
       
       > Der Signal-Gründer hat einen KI-Chatbot entwickelt, der die Privatsphäre
       > schützen soll. Geht das überhaupt? Die wichtigsten Fragen und Antworten.
       
 (IMG) Bild: Nutzer:innen teilen mit Chatbots oft sehr intime Daten – die nicht immer gut geschützt sind
       
       ## 1 Welche Rolle spielen Chatbots mit künstlicher Intelligenz?
       
       ChatGPT, gib mir zehn Konzepte für die Geburtstagsfeier eines vierjährigen
       Kinds. Gemini, welche Pflanze ist das auf dem Foto, und ist sie giftig?
       Perplexity, schreib einen Brief an die Hausverwaltung, der erklärt, warum
       die Nebenkostenabrechnung in folgenden Punkten falsch ist.
       
       Das sind nur drei von unzähligen Szenarien, in denen Nutzer:innen
       Dienste mit generativer künstlicher Intelligenz verwenden. Drei recht
       unverfängliche dazu, doch oft wird es persönlicher: [1][psychische oder
       physische Erkrankungen], sexuelle Vorlieben, Ängste – bei den Chatbots
       landen haufenweise privateste Informationen. Eine [2][im Dezember
       veröffentlichte Studie] von zwei Forschenden an der FU Berlin zeigt, dass
       mindestens ein Drittel der Nutzenden den Bot als Freund:in betrachtet. In
       einer Umfrage des IT-Verbands Bitkom vom November gaben 45 Prozent an,
       schon mal einen KI-Chatbot zu Symptomen und Gesundheitsthemen befragt zu
       haben.
       
       ## 2 Was ist das Problem dabei?
       
       Für die Anbieter der Chatbots ist das erst mal gar kein Problem. Im
       Gegenteil, sie bekommen einen großen Schatz persönlicher Daten über ihre
       Nutzer:innen geliefert. Nicht immer ist denen dabei bewusst, dass und
       welche Daten sie gerade preisgeben. Wer etwa ein erhaltenes
       Behördenschreiben hochlädt, und darum bittet, eine Antwort zu formulieren,
       verrät neben den Inhalten des Schreibens auch persönliche Daten wie Namen
       und Adresse.
       
       Die Eingaben der Nutzer:innen sind nicht die einzige Datenquelle für die
       KI-Firmen. „Die Modelle, auf denen die KI-Chatbots basieren, werden zum
       einen mit Daten aus dem Internet trainiert – das umfasst auch
       Informationen, die Nutzer:innen zum Beispiel auf
       Social-Media-Plattformen gepostet haben“, sagt Kleanthi Sardeli, Juristin
       bei der Datenschutz-NGO Noyb. „Zum anderen werden die Daten, die Nutzende
       bei KI-Chatbots eingeben, von den Unternehmen verarbeitet und genutzt – und
       können damit auch in den Antworten für andere auftauchen.“ Darüber hinaus
       sammeln die meisten Dienste Metadaten. Zum Beispiel Informationen über
       verwendete Geräte und Browser, über den Standort, Datum und Uhrzeit von
       Zugriffen, über Betriebssystem und Gerätekennung. Die Anbieter können sich
       also ein ziemlich genaues Bild von der Person machen, die ihren Dienst
       gerade verwendet.
       
       ## 3 Wie sieht es mit den Rechten der Nutzer:innen aus?
       
       Datenschützerin Sardeli stuft die Datenverarbeitung der Betreiber von
       KI-Modellen als illegal ein, und zwar gleich aus mehreren Gründen. So
       berufen sich die Unternehmen in der Regel auf ein „berechtigtes Interesse“
       zur Verarbeitung persönlicher Daten für das [3][KI-Training], statt eine
       explizite Einwilligung der Nutzer:innen zu erbitten. Außerdem erfüllten
       sie nicht alle [4][Pflichten aus der Datenschutz-Grundverordnung].
       
       Zum Beispiel: Die Verordnung sieht vor, dass Nutzer:innen etwa die
       Löschung ihrer persönlichen Daten fordern können oder, bei Fehlern, die
       Korrektur. „KI-Firmen erfüllen diese Rechte häufig nicht“, sagt Sardeli.
       Das liegt auch an einem derzeit ungelösten technischen Problem: Daten, die
       einmal ins Training eines KI-Modells geflossen sind, lassen sich dort nicht
       wieder herausholen, ohne dass das ganze Training wiederholt würde – was ein
       enormer Aufwand an Zeit, Rechenkapazitäten und Energie wäre.
       
       Die Folgen dieses Problems zeigen zwei juristische Verfahren, die Noyb
       derzeit unterstützt. In einem Fall wirft eine Person ChatGPT vor, ein
       falsches Geburtsdatum zu ihrem Namen zu generieren. Der zweite Fall
       betrifft einen Norweger, zu dessen Namen der Chatbot wahrheitswidrig unter
       anderem generierte, er habe zwei seiner Kinder ermordet, beim dritten habe
       er einen Mord versucht und sei für die Taten zur Höchststrafe von 21 Jahren
       Haft verurteilt worden.
       
       „Das sind keineswegs Extremfälle“, sagt Sardeli. „Das sind normale Menschen
       wie du und ich.“ Über den Norweger habe es im Internet nicht einmal viele
       Informationen gegeben. Die erzeugten Falschinformationen sind etwas, das
       als „halluzinieren“ bezeichnet wird. „So etwas kann jedem und jeder
       passieren, jederzeit.“
       
       ## 4 Wie will Confer das jetzt anders machen?
       
       Ein neuer Anbieter verspricht nun Privatsphäre: [5][Confer]. Dahinter
       steckt ein alter Bekannter der alternativen Softwarebranche, der Gründer
       des Signal-Messengers, Moxie Marlinspike. Aus dem Vorstand der
       Signal-Stiftung hat er sich schon vor einigen Jahren zurückgezogen und geht
       jetzt mit Confer an die Öffentlichkeit. „Confer ist so designt, dass du
       Ideen entwickeln kannst, ohne dass deine Gedanken eines Tages gegen dich
       verwendet werden können“, schreibt Marlinspike in einem [6][Blogbeitrag].
       Sein Versprechen: Confer liest nicht mit. Die Daten würden nicht verkauft,
       weitergegeben oder für das KI-Training genutzt. Um diesen Schutz möglich zu
       machen, müssen Nutzer:innen bei der Registrierung einen speziellen
       Schlüssel erstellen. Zudem soll auf dem Server eine besondere
       Hardwareumgebung vor ungebetenem Mitlesen schützen. Der Code ist auf der
       [7][Entwicklerplattform Github verfügbar].
       
       „Das ist ein großes Versprechen, und es klingt gut“, sagt Sardeli. Dennoch
       bleibt sie vorsichtig: Über das KI-Modell und die zugrunde liegenden
       Trainingsdaten sei nichts bekannt. Und ob der Bot besser als andere
       abschneide, was etwa die Faktensicherheit von Antworten angehe, könne erst
       eine eingehende Analyse zeigen.
       
       ## 5 Gibt es weitere Alternativen?
       
       Confer ist nicht der einzige KI-Chatbot, der einen besseren Schutz der
       Privatsphäre verspricht. Es gibt weitere, die zwar nicht das hohe
       Schutzniveau von Confer zusichern, dafür deutlich niedrigere
       Einstiegshürden haben. Einer davon ist Duck.ai, der KI-Chatbot des
       [8][US-amerikanischen Suchmaschinenanbieters DuckDuckGo].
       
       Das Unternehmen verspricht, Metadaten, die die Nutzer:innen
       identifizierbar machen, zum Beispiel die IP-Adressen, zu entfernen, bevor
       die Eingabe an ein KI-Modell weitergereicht wird. Unterstützt werden unter
       anderem Modelle von den Firmen Anthropic, OpenAI, Meta und Mistral. Unter
       den Antworten verlinkt Duck.ai die Quellen. Im Unterschied zu Confer ist
       hier kein Konto nötig.
       
       Ähnlich sieht es bei Leo AI aus, dem KI-Chatbot des Browseranbieters Brave.
       Wer den Browser installiert, startet Leo über die Einstellungen. Brave gibt
       an, dass die IP-Adressen nicht an die Betreiber der KI-Modelle
       weitergegeben und dass in den Chat eingegebene Daten und Fragen nur lokal
       gespeichert werden. Leo erlaubt neben der Nutzung von KI-Modellen wie Metas
       Llama und Claude Haiku von Antrophic auch die vor allem für
       Spezialist:innen interessante Möglichkeit, ein eigenes KI-Modell
       einzubinden.
       
       ## 6 Was können Nutzer:innen tun?
       
       „Ich würde empfehlen, die Menge an persönlichen Daten, die man in solchen
       KI-Chatbots eingibt, sehr gering zu halten“, sagt Sardeli. Nutzer:innen
       hätten kaum Handlungsmöglichkeiten, wenn ein KI-Modell Falschinformationen
       generiert und der Anbieter sich weigert, diese zu korrigieren. Sie
       empfiehlt, in solchen Fällen Beschwerde bei einer
       Datenschutzaufsichtsbehörde einzureichen.
       
       Harsh Varshney, der Softwareentwickler, der auch schon für Google
       arbeitete, hat gegenüber dem Magazin Business Insider im Dezember vier
       Ratschläge formuliert, die er selbst beherzige: keine Unternehmensinterna
       in einem öffentlich nutzbaren Chatbot erwähnen; regelmäßig den Verlauf
       löschen; die Datenschutzbedingungen lesen und beachten; und nur das bei
       einem KI-Chatbot eingeben, was man auch auf eine öffentlich lesbare
       Postkarte schreiben würde.
       
       Eine Empfehlung, die Varshney nicht gegeben hat: vor der Nutzung überlegen,
       ob es wirklich einen KI-Chatbot braucht. Oder ob nicht eine Recherche per
       Suchmaschine, die Nutzung eines Taschenrechners oder ein Austausch mit
       anderen Menschen ebenso hilfreich sein könnte.
       
       30 Jan 2026
       
       ## LINKS
       
 (DIR) [1] /KI-in-der-Psychotherapie/!5991831
 (DIR) [2] https://papers.ssrn.com/sol3/papers.cfm?abstract_id=5840365
 (DIR) [3] /Ausbeutung-im-Tech-Sektor/!6102646
 (DIR) [4] /Geplante-Digital-Reform-Hat-Big-Tech-zu-viel-Einfluss-auf-die-EU-genommen/!6145517
 (DIR) [5] https://confer.to/
 (DIR) [6] https://confer.to/blog/2026/01/private-inference/
 (DIR) [7] https://github.com/ConferLabs/confer-proxy/commit/a95ee7ecdb735326202c824489c2e82eb293aa31
 (DIR) [8] /Alternative-Suchmaschine/!5079336
       
       ## AUTOREN
       
 (DIR) Svenja Bergt
       
       ## TAGS
       
 (DIR) wochentaz
 (DIR) Zukunft
 (DIR) Schwerpunkt Künstliche Intelligenz
 (DIR) ChatGPT
 (DIR) Datenschutz
 (DIR) Datenschutzgrundverordnung
 (DIR) Digital
 (DIR) Schwerpunkt Künstliche Intelligenz
 (DIR) Schwerpunkt Künstliche Intelligenz
       
       ## ARTIKEL ZUM THEMA
       
 (DIR) Digitale Rechte in Europa: Datenschützt euch doch selbst
       
       Die EU plant eine umfassende Deregulierung ihrer Internet-Gesetzgebung.
       Kritiker fürchten einen massiven Rückschritt für digitale Grundrechte.
       
 (DIR) Ausbeutung im Tech-Sektor: Die KI-Revolution frisst ihre Gig-Worker
       
       Große Firmen lagern das Training künstlicher Intelligenz an Subunternehmen
       aus. Für die arbeiten weltweit echte Menschen – zu miserablen Bedingungen.
       
 (DIR) Künstliche Intelligenz und Datenschutz: Wer die KI füttert
       
       Mit den persönlichen Daten von Nutzer:innen eine KI trainieren? Das
       erlauben sich immer mehr Tech-Konzerne. Doch es gibt noch eine Chance.