# taz.de -- Roboterjournalismus: Wenn Maschinen berichten
       
       > Historisch gesehen ist Journalismus seit jeher von Technologie geprägt.
       > Doch wohin führt uns die algorithmische Textproduktion? 
       
 (IMG) Bild: Sind menschliche JournalistInnen bald schon unbrauchbar?
       
       Von [1][JOÃO DA MATA] 
       
       Man stelle sich vor: zwei Autos kollidieren an einem Montagmorgen. Diese
       Autos, ausgestattet mit moderner Kollisionserkennungstechnologie sowie GPS,
       senden Informationen über diesen Zusammenstoß an die zuständigen Behörden.
       Zur gleichen Zeit werden Daten über den Unfall von einem Nachrichtendienst
       gesammelt, der mithilfe eines Algorithmus die Story als „relevant für den
       Leser“ bewertet und automatisch einen kurzen Bericht darüber
       veröffentlicht. 
       
       Dadurch werden Leser individuell informiert, wie sie auf ihrem Weg zur
       Arbeit einen Stau vermeiden können. Dieses Beispiel mag weit hergeholt
       erscheinen, doch angesichts der technologischen Entwicklungen ist dem nicht
       so. Journalismus hat sich schon immer an technologische Entwicklungen
       angepasst. Die Frage ist nur: wie wird sich der Roboterjournalismus
       weiterentwickeln? 
       
       Automatisch generierte Medieninhalte sind bereits präsent in der
       Berichterstattung. Textroboter sind Journalisten geworden. Zuletzt erst
       startete die Redaktion von Stuttgarter Zeitung und Stuttgart Nachrichten
       einen automatisierten Feinstaubradar: jeden Tag werden automatisch 80
       Berichte erstellt. Als Autor wird „Ax“ angegeben, nach der
       Textautomatisierungssoftware „Ax Semantics“. Der Unterschied zwischen
       Texten, die von Menschen, und denen, die von Maschinen geschrieben werden,
       ist für die Leser dabei kaum noch zu erkennen. 
       
       ## Weniger lästige Arbeit
       
       Jan Georg Plavec, Multimedia Redakteur bei der Stuttgarter Zeitung, hat das
       Projekt von Anfang an geleitet und berichtet: „Der Textroboter führt
       definitiv nicht zur Reduktion von Kosten, sondern erzeugt sie. Wir bezahlen
       die Lizenzkosten und müssen die Datenbanken betreiben“, erklärt Plavec.
       „Unser Ziel ist eigentlich, viel mehr Texte mit der gleichen menschlichen
       Arbeitskraft zu erzeugen. Die Maschine macht dann eine lästige Arbeit, die
       für Menschen nicht wirklich befriedigend wäre.“ 
       
       Ausgangspunkt für Textroboter sind Datenbanken, wie beispielsweise für
       Sport-, Finanz-, Wetter- oder Verkehrsdaten. Diese Informationen können
       dann zusammen mit historischen Daten analysiert werden, um zusätzliche
       Erkenntnisse zu gewinnen, die berichtenswert sind. Sie werden also nach
       vordefinierten linguistischen und statistischen Regeln zu einem Text
       verarbeitet. 
       
       „Häufig füttert man den Algorithmus mit Daten aus nur einer Quelle, die
       nicht anhand einer anderen Quelle überprüft wird, wie traditionell üblich“,
       erklärt [2][Julius Reimer], Wissenschaftler am Hans-Bredow-Institut für
       Medienforschung. „Man muss diskutieren, inwiefern solche journalistischen
       Qualitätsstandards auch für automatisiert erstellte Beiträge gelten
       sollen“. 
       
       ## Die Zukunft des Journalismus
       
       Dazu muss sich aber noch einiges in den Redaktionen ändern. „In der Zukunft
       werden wir Programmierer, Datenanalysten und auch andere Berufe
       zusammenarbeiten sehen, die die Technisierung in den Redaktionen
       begleiten“, erzählt [3][Saim Alkan], CEO von Ax Semantics. „Aufhalten
       werden wir diese Technologie nicht mehr. Dazu ist sie schon zu weit
       fortgeschritten.“ 
       
       Worüber man allerdings sprechen müsse, so Alkan, wäre, wie man das
       Berufsfeld in einer automatisierten Welt gestaltet. „Man kann ja nicht
       ältere Mitarbeiter einfach auf der Strecke lassen, sondern man muss sie
       mitnehmen“. 
       
       Angst vor Roboterjournalisten müsse man aber nicht haben, so der Journalist
       Plavec: „Diese Maschinen können noch nicht selber denken: und selber denken
       ist eine der wesentlichen Eigenschaften von Journalisten. Solange die
       Maschine das nicht kann, besteht keine Gefahr“. Doch die Frage, wie sich
       der Roboterjournalismus weiterentwickeln wird, bleibt noch immer offen. 
       
       Mehr zur [4][algorithmischen Textproduktion] auf dem taz lab am 21. April
       um 9.15 Uhr in Zelt 2.
       
        9 Apr 2018
       
       ## LINKS
       
 (DIR) [1] /!s=&Autor=Joao+da+Mata/
 (DIR) [2] /programm/2018/Arbeit2018/de/speakers/1072.html
 (DIR) [3] /programm/2018/Arbeit2018/de/speakers/1071.html
 (DIR) [4] /programm/2018/Arbeit2018/de/events/661.html
       
       ## AUTOREN
       
 (DIR) Joao da Mata
       
       ## ARTIKEL ZUM THEMA