# taz.de -- Neuer Chatbot Confer: KI, aber mit Datenschutz
> Der Signal-Gründer hat einen KI-Chatbot entwickelt, der die Privatsphäre
> schützen soll. Geht das überhaupt? Die wichtigsten Fragen und Antworten.
(IMG) Bild: Nutzer:innen teilen mit Chatbots oft sehr intime Daten – die nicht immer gut geschützt sind
## 1 Welche Rolle spielen Chatbots mit künstlicher Intelligenz?
ChatGPT, gib mir zehn Konzepte für die Geburtstagsfeier eines vierjährigen
Kinds. Gemini, welche Pflanze ist das auf dem Foto, und ist sie giftig?
Perplexity, schreib einen Brief an die Hausverwaltung, der erklärt, warum
die Nebenkostenabrechnung in folgenden Punkten falsch ist.
Das sind nur drei von unzähligen Szenarien, in denen Nutzer:innen
Dienste mit generativer künstlicher Intelligenz verwenden. Drei recht
unverfängliche dazu, doch oft wird es persönlicher: [1][psychische oder
physische Erkrankungen], sexuelle Vorlieben, Ängste – bei den Chatbots
landen haufenweise privateste Informationen. Eine [2][im Dezember
veröffentlichte Studie] von zwei Forschenden an der FU Berlin zeigt, dass
mindestens ein Drittel der Nutzenden den Bot als Freund:in betrachtet. In
einer Umfrage des IT-Verbands Bitkom vom November gaben 45 Prozent an,
schon mal einen KI-Chatbot zu Symptomen und Gesundheitsthemen befragt zu
haben.
## 2 Was ist das Problem dabei?
Für die Anbieter der Chatbots ist das erst mal gar kein Problem. Im
Gegenteil, sie bekommen einen großen Schatz persönlicher Daten über ihre
Nutzer:innen geliefert. Nicht immer ist denen dabei bewusst, dass und
welche Daten sie gerade preisgeben. Wer etwa ein erhaltenes
Behördenschreiben hochlädt, und darum bittet, eine Antwort zu formulieren,
verrät neben den Inhalten des Schreibens auch persönliche Daten wie Namen
und Adresse.
Die Eingaben der Nutzer:innen sind nicht die einzige Datenquelle für die
KI-Firmen. „Die Modelle, auf denen die KI-Chatbots basieren, werden zum
einen mit Daten aus dem Internet trainiert – das umfasst auch
Informationen, die Nutzer:innen zum Beispiel auf
Social-Media-Plattformen gepostet haben“, sagt Kleanthi Sardeli, Juristin
bei der Datenschutz-NGO Noyb. „Zum anderen werden die Daten, die Nutzende
bei KI-Chatbots eingeben, von den Unternehmen verarbeitet und genutzt – und
können damit auch in den Antworten für andere auftauchen.“ Darüber hinaus
sammeln die meisten Dienste Metadaten. Zum Beispiel Informationen über
verwendete Geräte und Browser, über den Standort, Datum und Uhrzeit von
Zugriffen, über Betriebssystem und Gerätekennung. Die Anbieter können sich
also ein ziemlich genaues Bild von der Person machen, die ihren Dienst
gerade verwendet.
## 3 Wie sieht es mit den Rechten der Nutzer:innen aus?
Datenschützerin Sardeli stuft die Datenverarbeitung der Betreiber von
KI-Modellen als illegal ein, und zwar gleich aus mehreren Gründen. So
berufen sich die Unternehmen in der Regel auf ein „berechtigtes Interesse“
zur Verarbeitung persönlicher Daten für das [3][KI-Training], statt eine
explizite Einwilligung der Nutzer:innen zu erbitten. Außerdem erfüllten
sie nicht alle [4][Pflichten aus der Datenschutz-Grundverordnung].
Zum Beispiel: Die Verordnung sieht vor, dass Nutzer:innen etwa die
Löschung ihrer persönlichen Daten fordern können oder, bei Fehlern, die
Korrektur. „KI-Firmen erfüllen diese Rechte häufig nicht“, sagt Sardeli.
Das liegt auch an einem derzeit ungelösten technischen Problem: Daten, die
einmal ins Training eines KI-Modells geflossen sind, lassen sich dort nicht
wieder herausholen, ohne dass das ganze Training wiederholt würde – was ein
enormer Aufwand an Zeit, Rechenkapazitäten und Energie wäre.
Die Folgen dieses Problems zeigen zwei juristische Verfahren, die Noyb
derzeit unterstützt. In einem Fall wirft eine Person ChatGPT vor, ein
falsches Geburtsdatum zu ihrem Namen zu generieren. Der zweite Fall
betrifft einen Norweger, zu dessen Namen der Chatbot wahrheitswidrig unter
anderem generierte, er habe zwei seiner Kinder ermordet, beim dritten habe
er einen Mord versucht und sei für die Taten zur Höchststrafe von 21 Jahren
Haft verurteilt worden.
„Das sind keineswegs Extremfälle“, sagt Sardeli. „Das sind normale Menschen
wie du und ich.“ Über den Norweger habe es im Internet nicht einmal viele
Informationen gegeben. Die erzeugten Falschinformationen sind etwas, das
als „halluzinieren“ bezeichnet wird. „So etwas kann jedem und jeder
passieren, jederzeit.“
## 4 Wie will Confer das jetzt anders machen?
Ein neuer Anbieter verspricht nun Privatsphäre: [5][Confer]. Dahinter
steckt ein alter Bekannter der alternativen Softwarebranche, der Gründer
des Signal-Messengers, Moxie Marlinspike. Aus dem Vorstand der
Signal-Stiftung hat er sich schon vor einigen Jahren zurückgezogen und geht
jetzt mit Confer an die Öffentlichkeit. „Confer ist so designt, dass du
Ideen entwickeln kannst, ohne dass deine Gedanken eines Tages gegen dich
verwendet werden können“, schreibt Marlinspike in einem [6][Blogbeitrag].
Sein Versprechen: Confer liest nicht mit. Die Daten würden nicht verkauft,
weitergegeben oder für das KI-Training genutzt. Um diesen Schutz möglich zu
machen, müssen Nutzer:innen bei der Registrierung einen speziellen
Schlüssel erstellen. Zudem soll auf dem Server eine besondere
Hardwareumgebung vor ungebetenem Mitlesen schützen. Der Code ist auf der
[7][Entwicklerplattform Github verfügbar].
„Das ist ein großes Versprechen, und es klingt gut“, sagt Sardeli. Dennoch
bleibt sie vorsichtig: Über das KI-Modell und die zugrunde liegenden
Trainingsdaten sei nichts bekannt. Und ob der Bot besser als andere
abschneide, was etwa die Faktensicherheit von Antworten angehe, könne erst
eine eingehende Analyse zeigen.
## 5 Gibt es weitere Alternativen?
Confer ist nicht der einzige KI-Chatbot, der einen besseren Schutz der
Privatsphäre verspricht. Es gibt weitere, die zwar nicht das hohe
Schutzniveau von Confer zusichern, dafür deutlich niedrigere
Einstiegshürden haben. Einer davon ist Duck.ai, der KI-Chatbot des
[8][US-amerikanischen Suchmaschinenanbieters DuckDuckGo].
Das Unternehmen verspricht, Metadaten, die die Nutzer:innen
identifizierbar machen, zum Beispiel die IP-Adressen, zu entfernen, bevor
die Eingabe an ein KI-Modell weitergereicht wird. Unterstützt werden unter
anderem Modelle von den Firmen Anthropic, OpenAI, Meta und Mistral. Unter
den Antworten verlinkt Duck.ai die Quellen. Im Unterschied zu Confer ist
hier kein Konto nötig.
Ähnlich sieht es bei Leo AI aus, dem KI-Chatbot des Browseranbieters Brave.
Wer den Browser installiert, startet Leo über die Einstellungen. Brave gibt
an, dass die IP-Adressen nicht an die Betreiber der KI-Modelle
weitergegeben und dass in den Chat eingegebene Daten und Fragen nur lokal
gespeichert werden. Leo erlaubt neben der Nutzung von KI-Modellen wie Metas
Llama und Claude Haiku von Antrophic auch die vor allem für
Spezialist:innen interessante Möglichkeit, ein eigenes KI-Modell
einzubinden.
## 6 Was können Nutzer:innen tun?
„Ich würde empfehlen, die Menge an persönlichen Daten, die man in solchen
KI-Chatbots eingibt, sehr gering zu halten“, sagt Sardeli. Nutzer:innen
hätten kaum Handlungsmöglichkeiten, wenn ein KI-Modell Falschinformationen
generiert und der Anbieter sich weigert, diese zu korrigieren. Sie
empfiehlt, in solchen Fällen Beschwerde bei einer
Datenschutzaufsichtsbehörde einzureichen.
Harsh Varshney, der Softwareentwickler, der auch schon für Google
arbeitete, hat gegenüber dem Magazin Business Insider im Dezember vier
Ratschläge formuliert, die er selbst beherzige: keine Unternehmensinterna
in einem öffentlich nutzbaren Chatbot erwähnen; regelmäßig den Verlauf
löschen; die Datenschutzbedingungen lesen und beachten; und nur das bei
einem KI-Chatbot eingeben, was man auch auf eine öffentlich lesbare
Postkarte schreiben würde.
Eine Empfehlung, die Varshney nicht gegeben hat: vor der Nutzung überlegen,
ob es wirklich einen KI-Chatbot braucht. Oder ob nicht eine Recherche per
Suchmaschine, die Nutzung eines Taschenrechners oder ein Austausch mit
anderen Menschen ebenso hilfreich sein könnte.
30 Jan 2026
## LINKS
(DIR) [1] /KI-in-der-Psychotherapie/!5991831
(DIR) [2] https://papers.ssrn.com/sol3/papers.cfm?abstract_id=5840365
(DIR) [3] /Ausbeutung-im-Tech-Sektor/!6102646
(DIR) [4] /Geplante-Digital-Reform-Hat-Big-Tech-zu-viel-Einfluss-auf-die-EU-genommen/!6145517
(DIR) [5] https://confer.to/
(DIR) [6] https://confer.to/blog/2026/01/private-inference/
(DIR) [7] https://github.com/ConferLabs/confer-proxy/commit/a95ee7ecdb735326202c824489c2e82eb293aa31
(DIR) [8] /Alternative-Suchmaschine/!5079336
## AUTOREN
(DIR) Svenja Bergt
## TAGS
(DIR) wochentaz
(DIR) Zukunft
(DIR) Schwerpunkt Künstliche Intelligenz
(DIR) ChatGPT
(DIR) Datenschutz
(DIR) Datenschutzgrundverordnung
(DIR) Digital
(DIR) Schwerpunkt Künstliche Intelligenz
(DIR) Schwerpunkt Künstliche Intelligenz
## ARTIKEL ZUM THEMA
(DIR) Digitale Rechte in Europa: Datenschützt euch doch selbst
Die EU plant eine umfassende Deregulierung ihrer Internet-Gesetzgebung.
Kritiker fürchten einen massiven Rückschritt für digitale Grundrechte.
(DIR) Ausbeutung im Tech-Sektor: Die KI-Revolution frisst ihre Gig-Worker
Große Firmen lagern das Training künstlicher Intelligenz an Subunternehmen
aus. Für die arbeiten weltweit echte Menschen – zu miserablen Bedingungen.
(DIR) Künstliche Intelligenz und Datenschutz: Wer die KI füttert
Mit den persönlichen Daten von Nutzer:innen eine KI trainieren? Das
erlauben sich immer mehr Tech-Konzerne. Doch es gibt noch eine Chance.