# taz.de -- Synchronisierung in Deutschland: Kuck mal, wer da spricht
       
       > Deutsche sehen Serien und Filme noch immer oft in der Synchronfassung.
       > Aber kann die Wertschätzung einer Kunst ihre Zukunft sichern?
       
 (IMG) Bild: „Yippie yah Yei Schweinebacke!“: Bruce Willis in „Stirb Langsam“
       
       [1][Yippie Yah Yei Schweinebacke!“] Das ruft Synchronsprecher Manfred
       Lehmann anstelle der Stimme – und Obszönität – von Bruce Willis’
       (vergleichsweise veganem) englischem Schlagwort „motherfucker“ im Film
       „Stirb langsam“ von 1988. Deutsche Fans machten das Zitat schon zum Meme,
       noch bevor es soziale Medien gab.
       
       Heute ist die deutsche Film- und Fernsehsynchronisation selbst ein Meme
       geworden: Im Internet parodieren Menschen, wie Wortwahl und Sprechweise die
       Bedeutung der Sätze so stark verändern, dass sie das Anschauen des
       Originals zu einem ganz anderen Erlebnis machen. Auch ein Tiktok von
       Comedian [2][Jonna Groneberg], die in der Synchronindustrie gearbeitet hat,
       gehört zu diesen Memes. „Ich verwandle englische Filme im Grunde genommen
       in intensive deutsche Softpornos“, [3][scherzt sie in dem Video von einem
       Auftritt, das über 43.000-mal aufgerufen wurde]. Sie liest eine Zeile aus
       einem Bewerbungsgespräch auf Englisch vor, ganz seriös. Dann wiederholt sie
       sie in mädchenhaftem, hauchigem Deutsch.
       
       Auf Uneingeweihte wirkt Synchronisieren vielleicht albern. Literatur und
       Filme – ja, sogar die synchronisierten – haben uns trainiert, uns nach der
       „echten“ Stimme zu sehnen. In Disneys „Arielle, die Meerjungfrau“ zwingt
       eine Meerhexe Arielle, ihre schöne Stimme abzutreten.
       
       In „Du sollst mein Glücksstern sein“ („Singin’ in the Rain“) sind die
       Stimmbänder von Jean Hagens Figur solche Trommelfellspalter, dass Debbie
       Reynolds’ Figur hinter einem Vorhang für sie singen muss (was in der
       deutschen Synchronisation bedeutet, dass Marianne Prenzels Stimme aus
       Debbie Reynolds kommt, deren Figur von Jean Hagen gesprochen wird, die
       wiederum von Gertrud Spalke synchronisiert wird). Glänzende, schöne Stars
       werden durch eine Stimme verständlich gemacht, die einer Person gehört, die
       wir nie zu Gesicht bekommen. Das kann sich wie Täuschung anfühlen.
       
       ## Rassistische Stereotypen
       
       In den letzten Jahren wurde die Politik der Synchronisation zunehmend
       kritisiert: [4][Die deutsche Synchronsprecherin Thelma Buabeng] hat die
       Branche aufgefordert, ernsthafter gegen rassistische Praktiken anzugehen,
       etwa dagegen, dass einige weiße Synchronsprecher:innen Schwarzen
       Charakteren Stimmen geben, die rassistischen Stereotypen nachempfunden
       sind, gegen Fake-Akzente und gegen Fistelstimmen.
       
       Bereits 2004 stellte der Soziolinguist Robin Queen fest, dass Schwarze
       Charaktere überproportional oft mit deutschen Arbeiterklassen- und
       bayerischen Akzenten synchronisiert wurden. Und der US-amerikanische
       Wissenschaftler Patrick Ploschnitzki untersuchte in seiner Studie [5][„Seit
       wann ist Steve Urkel weiß?“] aus dem Jahr 2023, wie bei der Einstellung von
       Synchronsprecher:innen und bei deren Darbietungen rassistische
       Vorurteile außer Acht gelassen werden.
       
       Insbesondere für junge Menschen und diejenigen, die privilegiert genug
       sind, fließend Englisch zu sprechen, erscheint das gesamte Unterfangen der
       Synchronisation wie etwas, das man hinter sich lässt, sobald man Untertitel
       lesen kann. In einer Zeit, in der wir zögern, Kunst von Künstler:in zu
       trennen, warum sollten wir dann die Stimme vom Filmstar entfernen?
       
       Genau das wird in „Du sollst mein Glücksstern sein“ gemacht, dem Film über
       Hollywoods Übergang vom Stummfilm zum Tonfilm: Weil die Stimme eines
       Stummfilmstars so nervig ist, dass sie das Publikum abschrecken würde (wie
       die von Fran Drescher in „The Nanny“, deren Nasal der deutschen
       Synchronisation „Die Nanny“ leider fehlt), braucht sie eine
       Synchronsprecherin. Als Filme in den 1920er Jahren begannen, Tonaufnahmen
       zu verwenden, gab es statt der bisherigen Zwischentitel, die für
       Auslandsveröffentlichungen leicht zu übersetzen waren, nun Monologe und
       schnelle, sich überschneidende Dialoge.
       
       ## Untertitel als Lösung
       
       [6][Anfangs ließen einige Regisseur:innen ihre Stars die Zeilen in der
       Übersetzung neu aufnehmen] – auch wenn sie die Sprache gar nicht
       beherrschten. Das Endergebnis war unverständlich. Untertitel waren eine
       Lösung. Eine andere: Synchronsprecher:innen. Eine
       Milliarden-Dollar-Industrie war geboren. [7][Gut für die faschistischen
       Länder] – Deutschland, Spanien und Italien –, die die neue Technik in den
       1930er Jahren am eifrigsten einsetzten. So konnten die Regime andere
       Sprachen aus fremdenfeindlichen Gründen entfernen und die Dialoge
       gleichzeitig ideologisch zensieren.
       
       Nach dem Krieg erlebte die deutsche Synchronisation einen Boom, als die
       Amerikaner:innen ihre Filme nach Deutschland importierten. Der
       Filmverleih passte sie beim Synchronisieren dem Geschmack des Publikums an
       – so wurden beispielsweise Nazi-Anspielungen aus „Casablanca“ und
       Hitchcocks „Notorious“ entfernt. Selbst Jahrzehnte später wurden die
       deutschen Bösewichte aus „Stirb langsam“ in der deutschen Synchronfassung
       zu Briten.
       
       Jonna Groneberg vom bereits erwähnten Tiktok erklärte gegenüber der taz,
       dass deutsche Synchronisationen viele Vorteile haben. Mit Synchronisationen
       kann man beim Teekochen zuhören. Synchronisationen bieten verständliche
       Dialoge, in einer Zeit, in der schlechte Tonqualität als Grund dafür
       angesehen wird, [8][dass viele englische Muttersprachler:innen
       glauben, sie benötigten Untertitel für englischsprachige Medien].
       
       Groneberg vermutet jedoch, dass die Entscheidung für eine deutsche
       Synchronisation weniger technischer als vielmehr persönlicher Natur ist.
       Dass sie darin begründet liegt, warum wir überhaupt ins Kino gehen.
       „Synchronisation ist mehr als nur ‚Oh, ich spreche kein Englisch‘“, sagte
       sie. „Es ist eher: ‚Ich möchte die Emotionen wirklich in meiner Sprache
       spüren.‘“
       
       Groneberg arbeitete hauptsächlich als Studio-Koordinatorin und war nur
       gelegentlich als Synchronsprecherin tätig. Aber sie spricht sehr
       detailliert über die technischen Details des Handwerks: Der rote Punkt, der
       sich auf dem Bildschirm bewegt, „fast wie bei Karaoke“, zeigt ihr an, wie
       viel Zeit sie hat, damit ihr Dialog mit den Lippen der Schauspielerin auf
       dem Bildschirm übereinstimmt. Wie sie innerhalb dieses roten Punktes
       schauspielern, schreien, rufen, ihre Hand küssen oder so tun muss, als
       würde sie rennen – und das alles, ohne zu nahe an das Mikrofon zu kommen.
       
       ## Passend zu den Lippenbewegungen
       
       Und natürlich passend zu den Lippenbewegungen des Originals. Die Ps, Bs und
       Ms der Originalsprache und der Übersetzung werden berücksichtigt, damit das
       Publikum keine störenden Dissonanzen wahrnimmt, die den Drang zum
       Umschalten auslösen, wenn der Ton um einen Sekundenbruchteil verzögert ist.
       
       Cédric Cavatore arbeitet seit fünf Jahren als professioneller Sprecher und
       Synchronschauspieler, er war unter anderem der deutsche Erzähler in der
       beliebten Kinderserie „Peppa Wutz“ und die Stimme des roten Power Rangers.
       Eine andere Rolle, die Cavatore gesprochen hat, wurde mal von einer Biene
       gestochen, wodurch Gesicht und Zunge anschwollen. Um diesen Effekt
       nachzuahmen, steckte Cavatore sich Taschentücher in den Mund und sprach,
       während er mit den Händen auf seine Wangen drückte. „Das hat wirklich gut
       funktioniert. Es war aber auch ein bisschen anstrengend“, erzählt er der
       taz.
       
       Cavatore ist Vorstandsmitglied und stellvertretender Vorsitzender des
       Verbands Deutscher Sprecher:innen e.V. (VDS), wo er sich gegen den
       unregulierten Einsatz generativer KI in der Synchronisationsbranche
       einsetzt. Das Versprechen der KI-Industrie, Hollywoodstars so klingen zu
       lassen, als würden sie deutsch sprechen, zeugt laut Cavatore von mangelnder
       Kenntnis darüber, wie Sprache funktioniert. Jede Sprache stelle andere
       Anforderungen an den Sprechapparat, sagt er, nutze andere Resonanzräume
       oder Zungenbewegungen und lasse so auch die Stimme anders klingen. Es gibt
       zudem unzählige in jeder Sprache anders klingende Füllwörter und
       Soziallaute. Ähs, Auas, Hähs.
       
       „Die Stimmfarbe ist nur ein kleiner Teil der Stimmidentität. Sie wird auch
       von vielen weiteren Aspekten geprägt“, so Cavatore. „Meine Sprachmelodie,
       meine Modulation, meine Pausen, meine Atmung. Wo und wie ich aufgewachsen
       bin. All das spielt eine Rolle.“
       
       ## KI-Stimmen klingen leblos
       
       Dass KI-Stimmen so monoton und leblos klingen, führt Cavatore auf ihre
       Funktionsweise zurück. Auf Basis von Trainingsdaten errechnet ein
       Sprachmodell die wahrscheinlichste Betonung eines Textes. Aber das
       Naheliegendste sei meist langweilig, meint er. „Sprecher:innen mit ihrer
       ganzen Individualität bringen dagegen eine Lebendigkeit mit, die man mit
       synthetischen Stimmen nicht herstellen kann. Menschlichkeit ist nicht
       berechenbar.“
       
       Viele namhafte Unternehmen aus Big-Tech, Streaming oder der
       Videospielindustrie trainieren deswegen ihre Sprachmodelle mit Stimmen
       echter Menschen. „Und das meist ohne deren Zustimmung zu erfragen oder
       dafür zu zahlen“, vermutet Cavatore. Dies verstoße gegen Persönlichkeits-
       und Urheberrecht. Immer wieder würden sie daher versuchen,
       Sprecher:innen dazu zu bringen, Arbeitsverträge zu unterschreiben, mit
       denen sie sämtliche Rechte an ihren Stimmen abtreten, so Cavatore. Eine
       Methode, die stark an die Meerhexe in „Arielle“ erinnert.
       
       Aber es gibt Grund zur Hoffnung. [9][In diesem Monat entschied das
       Landgericht Berlin], dass die kommerzielle Nutzung von KI-Stimmen, die
       realen Stimmen nachempfunden sind, eine Urheberrechtsverletzung darstellen
       kann. Der Kläger? Bruce Willis’ Synchronsprecher Manfred Lehmann. Er hat
       also ein Recht auf die eigene Stimme. Zumindest vorerst ist das ein „Yippie
       Yah Yei.“
       
       Übersetzt aus dem Englischen von Johannes Drosdowski
       
       29 Sep 2025
       
       ## LINKS
       
 (DIR) [1] https://www.youtube.com/watch?v=nN68ZdyZyd8
 (DIR) [2] https://www.instagram.com/jonnagroneberg/?hl=en
 (DIR) [3] https://www.tiktok.com/@jonnagroneberg/video/7461671741031517473
 (DIR) [4] https://www.instagram.com/thelmabuabeng/?hl=en
 (DIR) [5] https://newprairiepress.org/cgi/viewcontent.cgi?article=2235&context=sttcl
 (DIR) [6] /Die-steile-These/!5709409
 (DIR) [7] https://www.deutschlandfunkkultur.de/das-kino-spricht-deutsch-100.html
 (DIR) [8] https://www.vox.com/videos/23564218/subtitles-sound-downmixing-dialogue-movies-tv
 (DIR) [9] /Synchronsprecher-gegen-Stimmen-Kopie/!6107976
       
       ## AUTOREN
       
 (DIR) Caroline Smith
       
       ## TAGS
       
 (DIR) Serien
 (DIR) TV-Serien
 (DIR) GNS
 (DIR) Kino Berlin
       
       ## ARTIKEL ZUM THEMA
       
 (DIR) Gespräch zu Kinos in Berlin: „Wir haben Chancen, wenn wir stärker an einem Strang ziehen“
       
       Als andere Berliner Kinos schließen mussten, wurden drei neue gegründet.
       Ein Gespräch mit den Betreiber*innen der Kinos.