# taz.de -- Sprachforscher über Desinformation: „Keine Zensur, keine Diskriminierung“
       
       > Eine neue Software des Fraunhofer Instituts soll in Sozialen Medien
       > selbstlernend Falschnachrichten finden. Unter anderem sollen Sprachfehler
       > darauf hinweisen.
       
 (IMG) Bild: Die Maschine macht das: Ein Algorithmus soll das Internet aufräumen
       
       taz: Warum deuten orthografische Fehler auf Fake News hin? 
       
       Ulrich Schade: Natürlich können nur mehrere Indizien in ihrer Kombination
       auf die Klassifikation „Fake News“ hinweisen. Wenn Sie zum Beispiel eine
       Hotelbewertung für ein türkisches Hotel sehen und jemand mit einem
       deutschen Standardnamen gibt vor, in diesem Hotel gewesen zu sein: Wenn in
       dieser Bewertung dann zum Beispiel ein „süper“ steht mit einem „ü“ anstelle
       des „u“, dann kann dies ein Indiz dafür sein, dass die Bewertung ein
       türkischer Muttersprachler geschrieben hat, die Bewertung ein „Fake“ ist
       und sie eventuell von dem Hotel selbst stammt. 
       
       Wie schließen Sie einfache Schreibfehler oder eine Diskriminierung von
       Menschen aus, die Deutsch weniger gut beherrschen? 
       
       Es wird nicht definitiv gesagt, das sind jetzt „Fake News“, sondern nur,
       dass es Hinweise darauf gibt. Der Nutzer muss letztlich die Bewertung
       selbst vornehmen. 
       
       Als Indiz für Fake News haben Sie die Formulierung „die aktuelle
       Bundeskanzlerin Angela Merkel“ genannt. Warum ist das sinnvoll? 
       
       Normalerweise würde man so eine umständliche Beschreibung in einer
       deutschen Zeitung nicht lesen. Hier in Deutschland weiß jeder, wer mit
       „Bundeskanzlerin“ gemeint ist. Wenn sie das aus einer auswärtigen Position
       wie Russland oder den USA schreiben, sieht das anders aus. Daher ist der
       Zusatz „aktuell“ ein weiterer, minimaler Hinweis, dem man nachgehen sollte.
       
       Dahinter steht die Annahme, dass übersetzte Beiträge tendenziell Fake News
       sind. 
       
       Nein. Dahinter steht, dass wir zu dritt gezielt nach [1][Beiträgen geschaut
       haben, die demokratiefeindlich sind]. Wir haben entsprechende „Fake News“
       aus der sogenannten „Deutschen Tageszeitung“ genommen. Das war eine
       Internetseite, die zum Teil wie die Seite einer seriösen Zeitung aufgemacht
       war. Sie wurde aber offenbar von russischen Muttersprachlern erstellt. Das
       ist eine der Quellen, die wir für das Korpus benutzt haben. Dadurch ergaben
       sich diese Merkmale. 
       
       Wie beugen Sie vor, dass durch das Training ein „bias“, also menschliche
       Vorurteile, in die Entscheidung der Software einfließen? 
       
       Sie haben in gewisser Weise Recht, dass da ein Bias mit drin ist. Sie
       müssen zunächst Korpora zusammenstellen. Dafür benötigen Sie ein Korpus mit
       Material, das sie als „Fake News“ bezeichnen würden, und ebenfalls ein
       Korpus mit objektiv guten Meldungen, wie zum Beispiel von dpa. Das Tool
       lernt so, danach zu entscheiden, ob eine neue Nachricht eher die Merkmale
       einer „guten“ Nachricht oder die von „Fake News“ hat. 
       
       Wo sehen Sie Anwendungsmöglichkeiten? 
       
       „Fake News“ finden zwar alle interessant, aber wir sehen die Anwendung eher
       in der [2][Erkennung von Hate Speech]. Ein Provider könnte Seiten vom Netz
       nehmen, wenn jemand, um ein drastisches Beispiel zu wählen, andere etwa als
       „Nigger“ bezeichnet. Solche Nutzer könnte man anschreiben und sie
       auffordern, sich bitte an die Regeln zu halten. Allerdings ist die
       Bewertung von Hate Speech schwieriger, nicht bei Beleidigungen, da sind
       sich alle einig. Aber wenn es um etwas geht, das im Englischen „offensive
       speech“ genannt wird, ist das schwieriger. Wir wollen ja keine Zensur und
       auch keine Diskriminierung. 
       
       Wird ihre Anwendung bereits angewandt? 
       
       Wir sagen prinzipiell nichts über Kunden, sofern diese das nicht
       ausdrücklich wünschen. 
       
       Ihr Programm ist aber nicht einzigartig? 
       
       Sie können davon ausgehen, [3][dass große Unternehmen wie Facebook ihre
       eigenen Tools haben], und wenigstens ein anderes Fraunhofer-Institut hat
       auch ein ähnliches Programm entwickelt.
       
       Sie sagen, die Einordnung von Hate Speech sei schwierig. Ist eine
       technologische Lösung trotzdem für die Herausforderung Fake News geeignet? 
       
       Es gibt keine andere Wahl. Sie können sich ja nicht permanent den gesamten
       Twitter-Stream ansehen. Daher ist es sinnvoll, dass eine Maschine
       vorsortiert. Aber [4][abschließend muss immer noch ein Mensch
       rüberschauen], damit nichts falsch läuft.
       
       13 Feb 2019
       
       ## LINKS
       
 (DIR) [1] /Debatte-Fake-News-und-ihre-Wirkung/!5375708
 (DIR) [2] /Debatte-Fake-News-und-ihre-Wirkung/!5375708
 (DIR) [3] /Informatikprofessorin-ueber-Algorithmen/!5429209
 (DIR) [4] /Doku-ueber-Social-Media/!5528146
       
       ## AUTOREN
       
 (DIR) Elisabeth Nöfer
       
       ## TAGS
       
 (DIR) Wahlmanipulation
 (DIR) Fake News
 (DIR) Fraunhofer
 (DIR) Hate Speech
 (DIR) Schwerpunkt Künstliche Intelligenz
 (DIR) Zivilcourage
 (DIR) Schwerpunkt Europawahl
 (DIR) Schwerpunkt Meta
 (DIR) Österreich
 (DIR) WhatsApp
 (DIR) Lesestück Recherche und Reportage
 (DIR) Netzsicherheit
       
       ## ARTIKEL ZUM THEMA
       
 (DIR) Internet-Aktivist über Hatespeech: „Hetze muss bestraft werden“
       
       Die Facebookgruppe #ichbinhier kämpft seit Ende 2016 gegen unsachliche und
       aufhetzende Kommentare in sozialen Medien. Ein Admin erklärt, warum.
       
 (DIR) Angebliche Verbindungen zu Russland: Antifa-Gruppen wehren sich
       
       Russland soll zwei Berliner Antifagruppen unterstützen, berichteten mehrere
       Medien. Eine seltsam klingende Behauptung – und offenbar völlig haltlos.
       
 (DIR) Verschwörungstheorien im Internet: Facebook sperrt Konten
       
       Krude Phantasien, Islamophobie, Antifeminismus: All das findet sich bei
       Facebook immer häufiger. Jetzt wurde dem Unternehmen der Druck wohl zu
       groß.
       
 (DIR) „Vermummungsverbot“ in Online-Foren: Weniger Anonymität, weniger Hass?
       
       Österreichs Bundesregierung will, dass User sich zu erkennen geben – mit
       ihrer Handynummer beim Provider. Netzexperten sind skeptisch.
       
 (DIR) Whatsapp schränkt Weiterleitungen ein: Don't kill the messenger
       
       WhatsApp verschärft die Regeln zur Weiterleitung von Nachrichten. Vorbild
       ist Indien, wo Fake-News für Panik und Selbstjustiz sorgen.
       
 (DIR) Gesichtserkennung in der Kritik: Diskriminierende Algorithmen
       
       KI-Programme erobern immer mehr Bereiche unseres Lebens. In der Regel
       wissen wir nicht, nach welchen Kriterien sie Entscheidungen treffen.
       
 (DIR) Informatikprofessorin über Algorithmen: Kabelbündel fürs Grobe
       
       Für das Überprüfen unerwünschter Inhalte wollen Firmen künstliche
       Intelligenz einsetzen. Informatikprofessorin Joanna Bryson erklärt, warum
       das gut ist.