# taz.de -- Psychologe Michal Kosinski: „Die Filterbubble ist ein Mythos“
       
       > Haben die Methoden von Michal Kosinski den Sieg Donald Trumps ermöglicht?
       > Und was sagen Fritten über Intelligenz? Der Psychologe im Gespräch.
       
 (IMG) Bild: „Facebook ist nicht schuld an der Filterbubble, der Mensch ist es“, sagt Kosinski
       
       taz.am wochenende: Herr Kosinski, sind Sie für Donald Trumps Wahlsieg
       verantwortlich? 
       
       Michal Kosinski: Kommen Sie, Sie wissen, dass das eine lächerliche Frage
       ist. Natürlich nicht.
       
       Es gab hier in Deutschland eine Menge Diskussionen über einen Text, in dem
       steht, eine Firma namens Cambridge Analytica habe daran, dass Trump
       gewonnen hat, entscheidenden Anteil: und zwar weil sie Ihre Methode
       benutzte, um Daten von Facebook-Nutzern auszuwerten und so Wähler gezielt
       anzusprechen. 
       
       Nun, Journalisten übertreiben manchmal. Ich bin mir ziemlich sicher, dass
       nicht Cambridge Analytica ihm den Sieg ermöglicht hat. Will man mit Daten
       Wahlkämpfe gewinnen, ist das auch eine Geldfrage. Hillary Clinton hat weit
       mehr Geld in diese Art des Wahlkampfs gesteckt als Trump, und sie hat viel
       länger auf Big Data gesetzt.
       
       Trump hat lange gesagt, er vertraue nicht auf Daten. Cambridge Analytica
       wurde erst im Sommer 2016 engagiert. Aber vielleicht war Clintons Wahlkampf
       weniger effektiv. 
       
       Wir wissen auch nicht, wie effektiv Cambridge Analytica wirklich war.
       Natürlich wollen die den Eindruck erwecken, sie hätten diese Wahl gewonnen.
       Aber wir wissen es nicht.
       
       In vielen Artikeln über die Firma steht, dass sie ihre Daten nicht mit den
       anderen an der Trump-Kampagne beteiligten Firmen teilen wollte. 
       
       Wie gesagt, wir wissen nicht, wie effektiv die arbeiten. Aber der wirklich
       wichtige Aspekt ist ohnehin nicht Trump.
       
       Originelle These. Was ist denn derzeit wichtiger als Trump? 
       
       Früher brauchte jemand, wenn er so detaillierte Informationen über Ihre
       Persönlichkeit erhalten wollte, Ihre Zustimmung. Um etwas über Ihre
       Persönlichkeit zu erfahren, musste ein Psychologe, ein geschulter Mensch
       Sie interviewen. Das war sehr aufwendig. Meine Forschung zeigt, dass heute
       sehr genaue Aussagen über Sie und Ihre Persönlichkeit getroffen werden
       können, wenn man sich mithilfe von Algorithmen Ihre Datenspuren im Internet
       ansieht. Unsere Untersuchungen haben gezeigt, dass schon wenige
       Facebook-Likes ausreichen, um sehr konkrete Aussagen über fünf Aspekte
       Ihrer Persönlichkeit zu treffen. So ab, sagen wir, 240 Likes vielleicht
       sogar bessere als Ihre Freundin.
       
       Sie selbst finden das, worüber Sie forschen, offenbar so gefährlich, dass
       Sie einige Ihrer Arbeiten mit entsprechenden Warnungen versehen haben.
       Warum erforschen Sie so etwas dann? 
       
       Ich habe diese Methoden ja nicht erfunden, ich gehe davon aus, dass Firmen
       das schon länger machen. Wir brauchen eine Diskussion darüber, wie wir
       damit umgehen. Dafür aber muss man wissen, wie diese Technologien
       funktionieren. Und man kann damit sehr viel Gutes tun.
       
       Was soll daran gut sein? 
       
       Firmen, Politiker, wer auch immer eine Botschaft vermitteln will, können
       diese Botschaft in Zukunft nur denen zeigen, die sie auch angeht und die
       sie interessiert. Das bedeutet schlicht: weniger Werbung.
       
       Das klingt eher wie die Perfektionierung der Filterbubble. 
       
       Die Filterbubble ist ein Mythos, es gibt keinen wissenschaftlichen Beweis
       dafür.
       
       Welchen Beweis braucht es denn? Viele Menschen merken einfach, dass sie in
       ihren Freundeslisten auf Facebook vor allem Menschen mit ähnlicher
       Gesinnung begegnen. 
       
       Aber das hat mit dem Internet nichts zu tun. Menschen mögen Informationen,
       die mit ihrem Weltbild übereinstimmen, die sie bestätigen. Menschen sind
       dazu gemacht, in einer Filterbubble zu leben. De facto hatten wir nie
       weniger Filterbubble als heute. Früher, als die meisten Menschen auf dem
       Dorf oder in kleinen Städten lebten, haben wenige Männer das kontrolliert,
       was an Informationen zugänglich war: der Lehrer, der Bibliothekar, der
       Priester. Nein, der Mensch tendiert dazu, andere für etwas verantwortlich
       zu machen, das er selbst tut. Menschen tendieren dazu, sich zu beschweren
       und zu jammern. Facebook ist nicht schuld an der Filterbubble, der Mensch
       ist es. Heute macht es das Internet überhaupt erst möglich, dass wir die
       Informationen sehen und ertragen müssen, die wir früher nie gesehen hätten.
       
       Seit Deutschland viele Flüchtlinge aufgenommen hat, werfen sich Rechte und
       Linke gegenseitig vor, nur die Informationen zu konsumieren, die ins eigene
       Weltbild passen. Die können doch mit ihrer Wahrnehmung nicht alle falsch
       liegen. 
       
       Wie gesagt, Menschen neigen dazu, gerne nur das zu sehen, was ihre Meinung
       bestätigt. Aber erst durch Facebook und das Internet überhaupt werden
       Menschen förmlich gezwungen, zu sehen, dass es total andere Haltungen als
       die ihre gibt. Das bewahrt sie nicht davor, sich menschlich zu verhalten,
       viele versuchen immer noch ihre Weltsicht zu erhalten und auf andere
       Informationen, die in diese Perspektive nicht hineinpassen, reagieren sie
       entsprechend. In Filterbubbles zu leben, das ist unser natürlicher Zustand.
       Aber das Internet bringt ihn in Gefahr, weil die andere Information immer
       nur einen Klick entfernt ist, es gibt eine nie zuvor dagewesene Vermischung
       von Ansichten, Ideologien und Perspektiven und deshalb fangen wir ans uns
       zu beschweren.
       
       Halten Sie die Polarisierung, die es auf Facebook gibt, nicht für ein
       Problem? 
       
       Es gab einmal eine schöne Alternative. Die Sowjetunion. Da wurde im Prinzip
       eine Wahrheit immer wieder kopiert. Das macht die Informationen nicht
       wahrer, aber es macht eine Gesellschaft natürlich weit weniger
       konfliktreich. So wie es jetzt ist, sind wir gezwungen aufeinander zu
       treffen und uns irgendwie miteinander auseinander zu setzen.
       
       Kommen wir mal zu Ihrer Forschung zurück. Warum soll ein Facebook-Like so
       viel über mich aussagen? Ich spiele im Internet eine Rolle. Ich bin nicht
       mein wahres „Ich“. 
       
       Sich anders zu verhalten, eine Rolle zu spielen, ist anstrengender, als die
       meisten denken. Darum ist Schauspielerei ein Beruf, und auch den machen
       viele nicht gut. Natürlich haben wir alle Masken auf, aber Menschen
       verkleiden sich im realen Leben viel einfacher als im Internet. Sie ziehen
       sich an, sie haben einen Bart oder nicht, schminken sich, tragen eine
       Frisur. Vor dem Computer sind sie in gewisser Weise mit sich allein, es
       gibt nicht viel, hinter dem sie sich verstecken können. Und dann versuchen
       Sie mal über ein Jahr, fünf Jahre, zehn Jahre jemand anderes zu sein.
       Tragen Sie dieselbe Maske über diese Zeit. Das ist mühsam, und diese Mühe
       nehmen die meisten Menschen nicht auf sich. Über die Zeit wird der
       Algorithmus zum Beispiel merken, dass sich ein bestimmtes Muster in ihrem
       Verhalten immer wiederholt, wenn Sie traurig sind.
       
       Das heißt, je länger jemand auf Facebook ist, desto präziser werden Ihre
       Aussagen? 
       
       Ja, mehr Daten sind immer besser. Aber letztendlich reichen bei vielen
       Menschen dann doch zehn Likes, um schon recht genaue Vorhersagen über den
       Charakter zu treffen.
       
       Sie haben einen Test auf Ihrer Website: Man kann sehen, was der Algorithmus
       alles über einen weiß. Viele in Deutschland haben auf Facebook geschrieben,
       es sei Unsinn dabei herausgekommen. Frauen waren Männer und umgekehrt,
       heterosexuelle Männer wurden homosexuell. 
       
       Das Modell auf unserer Webseite zielt auf Menschen in den USA. Bestimmte
       Symbole bedeuten hier und dort etwas ganz anderes. Ein fiktives Beispiel:
       Ein Auto von BMW bedeutet in den USA vielleicht vor allem für junge
       ungebildete Männer etwas, in Deutschland aber für ältere gesetzte Herren.
       
       Sie haben in einem Interview mal gesagt, Menschen mit einem hohen IQ würden
       öfter „Curly Fries“ liken, diese gekringelten Pommes. Warum ist das so? 
       
       Es könnte sein, und auch das denke ich mir aus, dass mal irgendwer an einer
       Universität einen Witz über Curly Fries gemacht und der hat sich dann unter
       Mathematikern verbreitet. Oder vielleicht war es ganz anders. Das ist eine
       dieser Verbindungen, die nur der Algorithmus sieht, nicht der Mensch.
       
       Bei mir hat Ihr Test dafür ziemlich gut funktioniert, dafür dass er nur 18
       Likes ausgewertet hat. Aber in meiner Auswertung steht, dass meine Likes
       für den Sender CNN, den Schriftsteller Neil Gaiman und die Zeitung „New
       York Times“ mich “liberal“ und „artistic“ erscheinen lassen und daneben
       steht, dass die Likes für CNN, „New York Times“ und Neil Gaiman mich
       „competitive“ erscheinen lassen. Können die gleichen Likes unterschiedliche
       Aussagen bedeuten? 
       
       Ja, natürlich. Ich könnte mir vorstellen, dass zum Beispiel Gaiman ein
       ziemlicher „strong like“ ist, ein starker Like. Das ist ein Schriftsteller
       mit einem recht speziellen Stil, das könnte zum Beispiel etwas über
       Offenheit aussagen. New York Times und CNN sind möglicherweise eher
       neutrale Likes, die bei der Bewertung im Verhältnis vielleicht weniger den
       Ausschlag geben. Sowohl bei den Curly Fries als auch bei Ihren Likes geht
       es aber immer nur um Bruchteile von Prozent, die in die Aussage über eine
       Person einfließen. Für sich selbst genommen mögen manche Faktoren ganz
       unbedeutend sein, erst in der Summe, indem der Algorithmus sie zusammen
       analysiert, ergeben sie einen Sinn.
       
       In einem Ihrer Aufsätze aus dem Januar 2015 schreiben Sie, die menschliche
       Wahrnehmung habe den Vorteil, sehr flexibel zu sein und viele unbewusste
       Signale wahrnehmen zu können. Deshalb, so schreiben Sie weiter, könnten
       Menschen besser darin sein, Charakterzüge zu beschreiben, für die es der
       Fähigkeit bedarf Subtiles wahrnehmen zu können. Da relativieren Sie Ihre
       Forschung? 
       
       Meine Forschung ist nicht zu Ende, wir stehen noch am Anfang. Betonen Sie
       bei der Aussage dort oben vor allem das „könnte“. Was wir bisher sehen ist,
       dass Maschinen uns besser beurteilen als Menschen, aber ich sage trotzdem
       nicht, dass ich Recht habe. Es kann auch noch andere Ergebnisse geben.
       
       Blendet Ihre Konzentration auf Likes nicht viele andere wichtige Faktoren
       aus? Ob jemand aus einem Arbeiterhaushalt kommt oder an eine bessere Schule
       gegangen ist? 
       
       Im Gegenteil, die Likes sagen über unsere Herkunft, unsere Lebensumstände
       sehr viel aus. Ich habe in meiner Jugend in Polen natürlich auch Beatles
       gehört, das überschneidet sich sicherlich mit Menschen, die in einer fancy
       Schule in L. A. waren. Aber ich habe auch vieles gehört, von dem hier
       niemand etwas weiß. Und das spiegelt sich in den Likes wieder.
       
       Und da macht es keinen Unterschied, ob ich etwas like, weil ich es
       tatsächlich mag oder weil ich es einfach nur interessant finde? 
       
       Nein, entscheidend ist, dass Sie auf den Knopf drücken. Der Algorithmus
       wird es dann mit Likes Ihrer Freunde vergleichen, mit dem, was Sie früher
       geliked haben, und Schlüsse ziehen.
       
       Der Psychologe David Funder von der Universität von Kalifornien sagt, er
       sei durchaus beeindruckt von Ihrer Arbeit, aber um eine Person wirklich zu
       verstehen, seien schon eher 100 Items notwendig und nicht fünf. 
       
       Ich schätze die Arbeit von David. Aber warum 100 Items? Warum nicht 1.000?
       Oder 10.000? Das sind doch willkürliche Zahlen, aber klar, es gilt: Je mehr
       Daten desto besser. Nur können Menschen diese 1.000 verschiedene
       Informationen gar nicht verarbeiten und 10.000 schon gar nicht. Nicht die
       Computer reduzieren uns auf weniger als 1.000 oder 100 Aspekte, das machen
       wir selbst. Wir reduzieren uns, wenn wir uns ein Bild von unseren
       Mitmenschen machen und von uns selbst übrigens auch. Wir produzieren
       Vorurteile und Verallgemeinerungen und kategorisieren uns. Menschen sind
       begrenzt darin, sich mehrdimensional zu sehen. Computer sind das nicht.
       
       Computer sind also die besseren Menschen? 
       
       Wir sind sehr gut darin, Menschen zu sein. Computer haben weniger
       Vorurteile.
       
       Können vorurteilsbehaftete Menschen Algorithmen schreiben, die selbst keine
       Vorurteile haben? 
       
       Eine philosophische Frage. Wenn Algorithmen nur von Menschen lernen, dann
       werden sie wohl auch menschliche Einstellungen übernehmen. Wenn ich einen
       Algorithmus programmiere, der mir den besten Investmentbanker suchen soll,
       dann wird da nach Stand der Dinge wohl ein weißer Mann herauskommen. Eine
       Methode wäre, zu versuchen, die Fragen an den Algorithmus weniger wertend
       zu formulieren und stattdessen nach einem Paket eher messbarer Fragen zu
       suchen. Zum Beispiel danach zu fragen, wer eine bestimmte Aufgabe am besten
       meistert. Oder den Algorithmus von etwas lernen zu lassen, das nicht der
       Mensch ist. Der Natur zum Beispiel.
       
       Sie haben einmal gesagt, das gesamte Internet widerspreche mit seinen
       vielen verfügbaren Informationen über Personen eigentlich dem deutschen
       Datenschutz. Heißt das, im Umkehrschluss, dass solche Entwicklungen wie in
       den USA hier nicht möglich sind? 
       
       Das Internet hat keine Grenzen. Und eigentlich haben wir, auch in den USA,
       zumindest einige Regeln wie sensible Daten über unsere Persönlichkeit,
       religiöse Vorlieben et cetera zu sammeln sind. Nur werden diese Regeln
       durch die Entwicklungen, die ich beschreibe, ausgehebelt.
       
       Die deutsche Algorithmusentwicklerin Yvonne Hofstetter sagt, das
       Demokratien und Gesetze zu langsam sind für immer komplexere Vorgänge und
       sie deswegen dysfunktional werden. 
       
       Sie hat Recht.
       
       Aber wenn so viele Informationen über uns verfügbar sind – warum sind dann
       die Ergebnisse so ungenau? Ständig erzählen sich Menschen, wie ungenau die
       Algorithmen von Amazon wohl sein müssen, weil sie dauernd Dinge angeboten
       bekommen, die sie nicht wollen. 
       
       Erstens erzählen Menschen eher von Dingen, die nicht funktionieren, als von
       denen, die funktionieren. Gerade, wenn diese Dinge sonst ziemlich gut
       funktionieren. Zweitens: Wer sagt, dass Werbung heute so gut funktioniert,
       wie sie könnte? Ein Datingportal hat kein Interesse, dass der Algorithmus
       so gut ist, dass wirklich alle einen Partner finden – weil dann das Portal
       pleitegeht. Und die Werbung kann derzeit gar nicht das Ziel haben, alles
       zielgerichtet zu verkaufen. Wo bliebe da die Nachfrage für neue Aufträge?
       
       Andererseits gibt es die berühmte Geschichte einer schwangeren 16-Jährigen,
       die nur aufgrund ihrer Datenspuren im Internet unverlangt
       Schwangerschaftsprodukte zugesandt bekam. Ist das eine moderne Legende? Die
       Legende des allwissenden Algorithmus? 
       
       Nein, dieses Beispiel gibt es, und es ist auch nicht nur eine Frau gewesen.
       Aber das ist auch ein Beispiel dafür, warum Algorithmen heute nicht so gut
       funktionieren, wie sie könnten. Natürlich finden die Leute es creepy, wenn
       so etwas passiert. Also mischt man bei Schwangeren heute halt unter die
       Babyprodukte auch mal etwas anderes. Und in der Kommunikation mit Kunden
       oder nach außen verschleiern die entsprechenden Unternehmen dann eben ihre
       Sprache. Dann heißt es nicht mehr, man würde Schwangerschaften voraussehen,
       sondern sie ersetzen „Schwangerschaft“ durch „dimension alpha“ oder einen
       anderen Kunstbegriff für einen plötzlichen Wandel im Benehmen. Da sind die
       Leute dann schon viel weniger besorgt.
       
       17 Dec 2016
       
       ## AUTOREN
       
 (DIR) Daniel Schulz
       
       ## TAGS
       
 (DIR) Schwerpunkt Meta
 (DIR) Donald Trump
 (DIR) Schwerpunkt USA unter Donald Trump
 (DIR) Schwerpunkt Meta
 (DIR) Datenschutz
 (DIR) Schwerpunkt taz.meinland
 (DIR) Schwerpunkt USA unter Donald Trump
 (DIR) Schwerpunkt USA unter Donald Trump
 (DIR) Fake News
 (DIR) Urteil
       
       ## ARTIKEL ZUM THEMA
       
 (DIR) Big Data und US-Präsidentschaftswahl: Facebook sperrt Datenanalysefirma
       
       Präsident Donald Trump hatte die Dienste von Cambridge Analytica bei der
       Wahl 2016 genutzt. Facebook sagt, die Firma hätte Auflagen des Netzwerks
       verletzt.
       
 (DIR) Big Data in der Industrie: Alles ist durchleuchtet
       
       Rückversicherer sammeln und analysieren massenhaft Daten aus der Industrie,
       um ihr Risiko zu verringern. Das haben Datenschützer kaum im Blick.
       
 (DIR) Politische Haltung und Widersprüche: Links, cool, selbstbesoffen
       
       In gebildeten linken Milieus scheint man von der unbedingten Richtigkeit
       des eigenen Standpunkts überzeugt. Damit liegt man schon falsch.
       
 (DIR) US-Präsident formal bestätigt: Wahlleute stimmen für Trump
       
       Trotz der Proteste: Donald Trump nimmt die letzte Hürde auf dem Weg zum
       Weißen Haus: Die Wahlleute wählen ihn zum 45. Präsidenten der Vereinigten
       Staaten.
       
 (DIR) Präsidentschaftswahl in den USA: Jetzt haben die Wahlleute das Wort
       
       Am Montag werden die Wahlleute wohl mehrheitlich ihre Stimme für Trump
       abgeben. Doch es hagelt Proteste und Aufrufe, das Votum zu blockieren.
       
 (DIR) Maßnahmen gegen Falschmeldungen: Facebook sagt Fake News Kampf an
       
       Facebook hat einen Plan vorgelegt, wie es gegen Falschmeldungen vorgehen
       will. Zunächst bleibt es bei einer Testphase in den USA.
       
 (DIR) Prozess am Bundesarbeitsgericht: Kein Facebook ohne den Betriebsrat
       
       Wollen Firmen in Online-Netzwerken werben, müssen sie die
       Mitarbeitervertretung fragen. Anlass für das Urteil ist ein Streit beim
       Roten Kreuz.