# taz.de -- Facebook-Algorithmen sollen Leben retten: Geht es dir gut?
       
       > Facebook betreibt jetzt Suizidprävention. Mit künstlicher Intelligenz
       > werden Posts überprüft. Nebenbei greift das Unternehmen sehr private
       > Daten ab.
       
 (IMG) Bild: Die Farben trüb, das Motiv heiter – das könnte den Algorithmus verwirren
       
       Tausende Menschen konnten Anfang des Jahres verfolgen, wie sich eine
       18-Jährige in Bangkok das Leben nahm. Die junge Frau sprach bei Facebook
       Live, einer Echtzeitvideofunktion, über die Trennung von ihrem Freund – und
       beging kurz darauf Suizid. Zuschauer*innen riefen Hilfe, doch die kam zu
       spät. Allein im Jahr 2017 berichteten englischsprachige Medien über
       mindestens ein Dutzend solcher Fälle und sprachen von einem „grausamen
       Trend“; genaue Zahlen sind nicht bekannt.
       
       Dass Menschen ein Facebook-Tool nutzen, um ihren Suizid zu veröffentlichen,
       ist für das Unternehmen vor allem eines: ein Imageschaden. Im November
       letzten Jahres hat Facebook deswegen eine neue Technologie eingeführt, die
       mithilfe künstlicher Intelligenz (KI) Selbsttötungsabsichten der
       Nutzer*innen frühzeitig erkennen und Suizide verhindern soll.
       
       Eine Win-win-Situation für das Unternehmen, denn der Versuch bringt
       Facebook nicht nur gute PR, sondern auch [1][viele neue Daten] über seine
       Nutzer*innen. Nur ein böser Vorwurf? Oder kann diese neue Technologie
       wirklich Menschenleben retten?
       
       Mit Mustererkennungstechnologien sollen alle Posts, Kommentare und Videos
       aller Nutzer*innen gescannt werden. Dabei soll geprüft werden, ob sich
       darin Inhalte befinden, die auf Suizidabsichten hinweisen könnten.
       Ausschlaggebend, so steht es in der Pressemitteilung von Facebook, sollen
       dabei Schlagworte wie „Are you okay?“ oder „Can I help you?“ sein. Tauchen
       diese auf, wird ein Alarm ausgelöst und der betroffene Post, Kommentar oder
       das Video wird an ein Team aus geschulten Moderator*innen
       weitergeleitet. Diese können mit der möglicherweise suizidgefährdeten
       Person Kontakt aufnehmen oder im Ernstfall Hilfe durch Freund*innen,
       Psycholog*innen oder die Behörden organisieren. Und nebenbei weiß Facebook
       noch viel mehr über uns als ohnehin schon.
       
       ## Facebook fürchtet wohl die EU-Datenschutzverordnung
       
       Schon seit zwei Jahren unternimmt das soziale Netzwerk Schritte zur
       Suizidvorbeugung. Bisher konnten Nutzer*innen suizidgefährdete
       Freund*innen melden, und Facebook sendete dann verschiedene
       Hilfsangebote. Nun soll KI die Präventionsarbeit übernehmen. Nach
       monatelangen Tests des Systems in den USA soll es nun weltweit eingeführt
       werden – außer in der EU. Auf Anfrage der taz antwortete Facebook vage,
       ihnen sei bewusst, dass es sich um ein in Europa „sensibles Thema“ handle.
       
       Matthias Spielkamp von Algorithm Watch vermutet, dass Facebook die
       Datenschutzgrundverordnung der EU, die im Mai in Kraft tritt, fürchtet.
       „Facebook weiß aus der Vergangenheit, dass nicht nur der europäische
       Gesetzgeber, sondern auch europäische Datenschutzaktivisten sehr aggressiv
       sind und häufig klagen“, sagt Spielkamp. Diese Erfahrung musste Facebook
       schon mit seinem Gesichtserkennungsprogramm machen. Nach massiven Protesten
       wurde es in der EU und in Kanada wieder abgeschafft.
       
       Doch wenn es die technischen Möglichkeiten gibt, mit KI Suizide zu
       verhindern, sollten sie dann nicht genutzt werden? Zumal dadurch auch
       Nachahmungstaten verhindert werden könnten?
       
       Spielkamp kritisiert, dass Facebook nur sehr ungenau erkläre, wie das Tool
       funktioniert. „Einerseits ist es gut, dass wir über das System nicht bis
       ins kleinste Detail Bescheid wissen“, sagt er. „Sonst gäbe es die
       Möglichkeit, es zu missbrauchen, etwa indem Menschen eine Suizidgefährdung
       angedichtet wird, die keine haben.“ Andererseits sei über das Verfahren
       aber so wenig bekannt, dass man über seine Wirksamkeit keine sinnvollen
       Aussagen machen könne. „Das macht es unmöglich, das Tool zu bewerten.“
       
       ## Tool könnte das Thema Suizid enttabuisieren
       
       10.000 Menschen in Deutschland nehmen sich pro Jahr das Leben; so die
       Statistik des Gesundheitsministeriums. Bei Menschen unter 25 Jahren ist es
       die zweithäufigste Todesursache. Niko Brockerhoff arbeitet bei [U25],
       einer Onlineberatung der Caritas für suizidgefährdete Jugendliche. Er
       sieht in dem Tool eine Chance, junge Menschen zu erreichen. „Das Thema
       Suizid ist in unserer Gesellschaft noch immer stark schambesetzt“, sagt
       er. Bei [U25] melden sich Betroffene aus eigenem Antrieb. Facebook aber
       kann auch Menschen erreichen, die nicht aktiv nach Hilfe suchen. „Wenn ein
       Helfender über Facebook eine Person anspricht, kann das dazu führen, dass
       Menschen ihre Suizidgedanken thematisieren“, sagt Brockerhoff. Doch das
       Positive des Tools, nämlich Menschen ansprechen zu können, die nicht selber
       Hilfe suchen, stellt gleichzeitig eine große Gefahr dar.
       
       Wenn Facebook eine als suizidgefährdet eingestufte Person nicht erreichen
       kann, schickt das Unternehmen im Notfall die Behörden. Das heißt: Ein
       falscher Alarm kann äußerst unangenehme Folgen haben; plötzlich steht die
       Polizei vor der Haustür. Vor allem, wenn die Person gar nicht
       suizidgefährdet ist, kann das folgenschwere Auswirkungen für die
       Betroffenen haben. „Dafür muss es dann eine gute Rechtfertigung geben“,
       sagt Spielkamp.
       
       Auch Brockerhoff sieht in der Fehlbarkeit des Tools eine große Gefahr.
       „Menschen, die mit Suizidgedanken kämpfen, haben Angst, dass ihnen die
       Mündigkeit genommen wird und sie eingeliefert werden“, sagt er. Da man das
       Tool nicht abschalten kann, könne der neue Algorithmus die Menschen davon
       abhalten, ihre Gefühle, Ängste und Sorgen überhaupt auf der Plattform zu
       teilen, befürchtet Brockerhoff.
       
       Bei [U25] besteht diese Gefahr nicht. Bei der Onlineberatung stehen die
       Klienten im wöchentlichen Mail-Kontakt mit ihren Helfer*innen. „Sie können
       alle ihre Suizidgedanken loswerden – ohne Angst, dass wir gegen ihren
       Willen Hilfe rufen“, sagt Brockerhoff. „Denn wenn sie uns keine konkreten
       Orts- und Zeitangaben für ihren Suizid geben, sind wir machtlos.“ [U25]
       speichert keine Daten, nicht einmal die IP-Adressen der Nutzer*innen. „Das
       verschafft uns das Vertrauen der Klienten.“
       
       ## Selbst der Schutz hat seinen Preis
       
       Mark Zuckerberg postete auf Facebook, dass allein im ersten Monat Kontakt
       mit 100 suizidgefährdeten Menschen aufgenommen worden sei. Doch wie viele
       Fehlalarme es gab, darüber informiert Facebook nicht. Wie reell diese
       Gefahr jedoch ist, zeigen Untersuchungen zu Instagram. Auch hier soll aus
       Gründen der Suizidprävention vermehrt künstliche Intelligenz eingesetzt
       werden.
       
       Die Wissenschaftler Christopher Danforth und Andrew Reece von den
       Universitäten Harvard und Vermont fanden im Rahmen ihrer Studie heraus,
       dass sich am Instagram-Account erkennen lasse, ob eine Person depressiv
       ist. Depressive Menschen hätten häufiger dunkle oder Schwarz-Weiß-Filter
       benutzt, während Nichtdepressive hellere und wärme Filter eingesetzt hätten
       und auf ihren Bildern häufiger Menschen zu sehen gewesen seien. Bei der
       Auswertung von 43.000 Fotos wurden 70 Prozent der tatsächlich Depressiven
       erkannt. Gleichzeitig wurden jedoch auch 50 Prozent der Nichtdepressiven
       fälschlicherweise als psychisch krank markiert.
       
       Wer bei Facebook angemeldet ist, bezahlt mit einem Teil seiner Daten. So
       funktioniert das soziale Netzwerk. Facebook verfolgt das Verhalten seiner
       Nutzer*innen sehr genau und will nun daraus auf Suizidgefährdung
       schließen können. Das Unternehmen behauptet, diese Daten nur zum Schutz der
       Nutzer*innen zu verwenden. „Doch ist es ebenso gut vorstellbar, das
       entsprechend kategorisierten Nutzern Werbung für stimmungsaufhellende
       Medikamente gezeigt wird. Wollen wir das wirklich?“, fragt Spielkamp.
       
       Ähnlich wie der Umgang mit Hate Speech stellt der Umgang mit Suiziden
       Facebook vor eine schwierige Aufgabe. Mit seinen zwei Milliarden
       Nutzer*innen und den Unmengen gesammelter Daten hat das soziale Netzwerk
       viel Macht. Spielkamp wünscht sich, dass sich Facebook mit
       Wissenschaftler*innen für eine Begleitforschung zusammentut. Diese
       könnten herausfinden, ob Facebooks Suizidprävention wirklich funktioniert
       und welche positiven, aber auch negativen Effekte sie hat. „Dann kann
       Facebook das Tool verbessern. Im schlimmsten Fall muss es wieder
       eingestellt werden“, meint Spielkamp.
       
       ## Too big to fail?
       
       Dass das passieren wird, ist jedoch unwahrscheinlich. Zu groß ist der
       Gewinn für das soziale Netzwerk. Und auch wenn es vor allem auf den
       eigenen Vorteil aus ist: Gegen den Versuch, Leben zu retten, lässt sich
       nur schwer argumentieren. Aber letztlich geht dabei der vermeintliche
       Schutz Einzelner auf Kosten vieler. Die Frage des Datenschutzes rückt in
       den Hintergrund, und eine deutlich wichtigere ethische Frage kommt zum
       Vorschein: Wie viel ist ein Menschenleben wert?
       
       1 Feb 2018
       
       ## LINKS
       
 (DIR) [1] /!5363681/
       
       ## AUTOREN
       
 (DIR) Carolina Schwarz
       
       ## TAGS
       
 (DIR) Schwerpunkt Meta
 (DIR) Schwerpunkt Meta
 (DIR) Daten
 (DIR) Datenschutz
 (DIR) Suizid
 (DIR) Online-Werbung
 (DIR) Suizid
 (DIR) Google
 (DIR) Suizid
 (DIR) Lesestück Meinung und Analyse
 (DIR) Schwerpunkt Meta
 (DIR) Schwerpunkt Meta
 (DIR) Digitalisierung
       
       ## ARTIKEL ZUM THEMA
       
 (DIR) Gruppe für Angehörige nach Suizid: Wenn der Abschied fehlt
       
       Bei Agus e.V. treffen sich Menschen, die einen Angehörigen durch Suizid
       verloren haben. Hier können sie über ihre Gefühle sprechen.
       
 (DIR) Debatte Künstliche Intelligenz im Krieg: Der Google-Militär-Komplex
       
       Das Pentagon setzt für zukünftige Einsätze zunehmend auf künstliche
       Intelligenz. Dafür engagiert es unter anderen den IT-Konzern Google.
       
 (DIR) Berichterstattung zum Tod von Avicii: Jetzt mit krassen Details!!!
       
       Die Art, wie verschiedene Medien über den möglichen Suizid des DJs Avicii
       berichten, ist nicht nur pietätlos, sondern auch gefährlich.
       
 (DIR) Debatte Künstliche Intelligenz: Wir können noch Frühstück machen
       
       Stelbstfahrende Autos und Pflegeroboter – KIs machen oft Angst. Dem können
       wir entgegenwirken: mit Regeln und dem Fokus auf menschliche Fähigkeiten.
       
 (DIR) Urteil des Landgerichts Berlin: Schlappe für Facebook
       
       Firmen dürfen personenbezogene Daten nur verwenden, wenn die Betroffenen
       zugestimmt haben. Das Berliner Gericht sieht Facebook in der Pflicht,
       nachzubessern.
       
 (DIR) Big Data für die Forschung: Bringschuld für Datenspenden
       
       Bei Big Data sieht der Deutsche Ethikrat Chancen für die Wissenschaft. Die
       Mehrheit des Rats möchte möglichst freien Zugang für Forscher.
       
 (DIR) Max Schrems über das Facebook-Urteil: „Von allen guten Geistern verlassen“
       
       Der Jurist Max Schrems darf zwar keine Sammelklage gegen Facebook in Wien
       einreichen, aber eine einzelne. Damit sei ein wichtiger Punkt geklärt, so
       der Österreicher.
       
 (DIR) Theaterfestival „Spy on me“ in Berlin: Wer sich nackig macht, wird belohnt
       
       Apps und Geräte sammeln Daten. Am besten nutzt man sie nicht. Nur: Sie sind
       praktisch und machen Spaß. Das HAU hat diesen Zwiespalt erkundet.