Media in Translation · Arten der Medienübersetzung
Arten von Medienübersetzung
- Untertitelung
- Simultane Untertitelung (Live-Untertitelung)
- Übertitelung
- Synchronisation (Dubbing)
- Voice-Over
- Erzählung
- Freier Kommentar
Untertitelung
Die Erfindung des Films Ende des 19. Jahrhunderts ist die Geburtsstunde der Untertitel. Die Dialoge der Schauspieler werden schon in den ersten Stummfilmen optisch wiedergegeben, später führen sogenannte Zwischentitel durch die Handlung der Filme. Mit dem Aufkommen des Tonfilms verschwinden die Zwischentitel, die Untertitelung hat sich bis heute erhalten.
Standardmäßig werden Untertitel in weißer Schrift am unteren Bildschirmrand angezeigt. Bei der Untertitelung findet ein Wechsel von der gesprochenen in die geschriebene Sprache statt. Als günstigere Alternative zur Synchronisation hat die Untertitelung durchaus ihren Stellenwert. In kleineren Sprachgemeinschaften wird häufig auf Untertitelung zurückgegriffen. In manchen Kulturgemeinschaften ist die Untertitelung generell beliebter als die Synchronisation.
Klassische Untertitelungsländer
| Land | Untertitelung | Synchronisation | Voice-Over |
|---|---|---|---|
| Niederlande | 94% | 1% | 5% |
| Finnland | 92% | 0% | 8% |
| Griechenland | 90% | 5% | 5% |
| Norwegen | 85% | 1% | 14% |
| Dänemark | 77% | 0% | 23% |
(Quelle: Luken 1991:33)
Arten von Untertiteln
- Intralingual: Untertitel in der Ausgangssprache (z.B. für Gehörlose, Fremdsprachenlernende)
- Interlingual: Untertitel in der Zielsprache (Übersetzung)
Technische Umsetzung
- Open subtitles (auch hardsubbed): Untertitel werden zusammen mit dem Fernsehsignal ausgestrahlt und lassen sich nicht zu- oder wegschalten.
- Closed subtitles (auch softsubbed): Optional zu- und wegschaltbare Untertitel (häufig bei DVDs).
Workflow
- Meist geht der Untertitler von einem Skript aus. In manchen Fällen steht jedoch lediglich das Filmmaterial zur Verfügung.
- Der Dialogtext wird in Segmente mit Nummerierung umgewandelt, D.h. das Gesprochene wird in Text umgewandelt. Eine Filmsekunde besteht aus 25 Einzelbildern (PAL). Da wir Gesprochenes schneller aufnehmen können als Geschriebenes, muss der Untertitler Aussagen kürzen oder umschreiben, ohne den Sinn des Gesagten zu verfälschen.
- Spotting: Wichtig ist das richtige Spotting (d.h. das Festlegen der Ein- und Ausstiegszeiten der Untertitel). Ein gutes Spotting richtet sich nach den Vorgaben der Schnitte im Bild, dem Rhythmus der Bilder sowie den Sprechersequenzen und dem Dialogfluss.
Zu beachten
- Inhalt lesefreundlich auf die Zeilen verteilt (eine Zeile sollte ca. 35 Zeichen enthalten; ein Untertitel sollte max. aus zwei Zeilen bestehen (ca. 70 Zeichen)). Nur so bleibt genug Zeit, den Text zu lesen, und es wird keine Pointe vorweggenommen.
- Richtiges Timing für Einstiegs- und Ausstiegszeiten (Untertitel sollten lange genug eingeblendet sein, damit sie der Zuseher lesen kann). Das Auge benötigt mindestens eineinhalb Sekunden, um festzustellen, dass ein neuer Untertitel erschienen ist. Daher soll der Untertitel zumindest eineinhalb Sekunden und nicht länger 7 Sekunden eingeblendet sein. Generell gilt die Sechs-Sekunden-Regel: Der Zuseher braucht für einzeilige Untertitel ca. drei bis vier Sekunden und für zweizeilige Untertitel etwa sechs Sekunden zum Lesen. Zwischen den Untertiteln sollte eine Pause von vier bis fünf Vollbildern (d.h. 1/4 bis 1/5 Sekunde) sein, damit der Zuseher den Sinn erfassen kann. Der Leserhythmus hängt stark vom Zielpublikum ab!
- Einfache Satzstrukturen verwenden (keine Einschübe). Nebensätze vermeiden. Keine Tippfehler machen. Wortwahl an das Zielpublikum anpassen. Die Einhaltung dieser Punkte sorgt für Lesbarkeit und Verständnis.
- Klarer Einsatz von Satz- und Sonderzeichen und Schriftarten.
- Sprecherwechsel optisch hervorheben.
Vorteile
- Das Original bleibt erhalten. Dies ist ein angenehmer Nebeneffekt für alle, die eine Sprache lernen oder internationales Kino lieben.
- Kostengünstige Variante, einen Film im Ausland bekannt zu machen.
- Schauspieler können mit ihrer Originalstimme erlebt werden.
Nachteile
- Intonation und Rhythmus können als Interpretationshilfe verwendet werden. Wenn Kulturen aber weit auseinander liegen (z.B. in der Art wie Ironie ausgedrückt wird), können beim Zuseher auch Irritationen entstehen.
- In der gesprochenen Sprache haben Intonation, Sprachmelodie oder Betonung eine große Bedeutung, die schriftlich nicht so dargestellt werden können. Dies verlangt eine qualitativ hochwertige Arbeit des Übersetzers.
- Kürzungen sind unvermeidlich. Die Übersetzer können nicht nur die Worte selbst wiedergeben, sondern sie müssen auch deren inhaltliche Bedeutung berücksichtigen und den Stil zum Ausdruck bringen.
Formate und Verwendung
Untertitel liegen entweder als Textdateien (mit speziellen Formatierungen) oder als Bilddateien (Bitmaps) vor. Die bekanntesten Formate sind:
- VobSub (.sub + .idx) – Bitmap-Bilder
- SubRip (.srt) – Untertitel sind Textdateien
- Substation Alpha (.ssa) – Untertitel in Textform
- Advanced SSA (.ass) – eine Weiterentwicklung von Substation Alpha
Software
- EZTitles – www.eztitles.com/
- Subtitle Edit – www.nikse.dk/subtitleedit/
- CaptionTube – www.captiontube.appspot.com/
- U.a. – siehe: www.netzwelt.de/downloads/subtitle-utilities.html
Freeware
- Aegisub
- Belle Nuit Subtitler
- JACOsub
- Subtitle Workshop
- Titlevision
- Subtitle Edit
Preise und Bedingungen
Die Preise richten sich nach Anzahl der Filmminuten und/oder Anzahl der erstellten Untertitel. Auf den Preis wirken sich ferner aus: Erstellung von Spotting, Textmenge, Tonqualität, gewünschten Abgabeformaten, Abgabefristen
Synchronisation (Dubbing)
Die Synchronisation kommt in den 1930er Jahren mit dem Durchbruch des Lichttonverfahrens auf.
Nach dem zweiten Weltkrieg wird Synchronisation benutzt, um in Inhalte einzugreifen. Die Geschichte der Synchronisation ist voll von schlechten Beispielen mit manipulierten Inhalten. In den 1970er Jahren kommt das Fernsehen auf und damit einher geht der sprunghafte Anstieg von synchronisierten Fassungen.
Im Unterschied zur Untertitelung findet kein Medienwechsel statt. Es werden nicht nur fremdsprachige Filme synchronisiert sondern auch Filme in der Ausgangssprache, um beispielsweise die Soundqualität sicherzustellen, wenn Aufnahmen unter freiem Himmel gedreht wurden. Auch wenn die Synchronisation aufwändig und teuer ist, ist sie vor allem in großen Sprachgemeinschaften sehr verbreitet.
Klassische Synchronisationsländer
| Land | Synchronisation | Untertitelung | Voice-Over |
|---|---|---|---|
| Italien | 100% | 0% | 0% |
| Österreich | 97% | 0% | 3% |
| Frankreich | 90% | 8% | 2% |
| Deutschland | 80% | 10% | 10% |
| Spanien | 80% | 0% | 20% |
(Quelle: Luken 1991:33)
Arten von Synchronisation
- Pre-synchronization: Der Ton wird vor dem Bild aufgenommen (z.B. Playback in Musical, Schlagersendungen).
- Direct sound synchronization: Bild und Ton werden gleichzeitig aufgenommen(z.B. Nachrichtensendungen, Live-Sendungen, Talkshows).
- Post-synchronization: Der Ton wird nach dem Bild aufgenommen. Tonaufnahmen und Bilder werden später synchron aufeinander abgestimmt (fremdsprachige Filme).
Workflow
- Ein Übersetzer fertigt eine Rohübersetzung an. Dabei handelt es sich um eine wörtliche Übertragung der Dialoge.
- Dialogautor und Synchronregisseur passen den Film für das Zielpublikum an. Der Dialogautor bringt diese Wort-für-Wort-Übersetzung in Form. Er passt die Dialogfassung an die Lippenbewegungen an. Der Synchronregisseur entscheidet als Gatekeeper zwischen den Kulturen, wie der Film in der Zielkultur aufgenommen wird.
- Der Film wird in Takes (Sinneinheiten) geteilt. Jede Sinneinheit besteht aus etwa ein bis vier Sätzen (10 bis 25 Sekunden). Je nach Filmlänge ergibt dies 900 bis 1300 nummerierte Takes.
- Die Synchronsprecher besprechen die Takes im Studio.
- Cutter und Mischtonmeister sorgen für die Endabstimmung von Bild und Ton.
Zu beachten
- Lippensynchronität: Übereinstimmung der hörbaren Laute mit den gesehenen Lippenbewegungen.
- Quantitative Lippensynchronität: Die Synchronisation beginnt genau in dem Moment, in dem der Schauspieler die Lippen bewegt. Um die Synchronität aufrecht zu erhalten, muss teilweise auch das Sprachtempo erhöht oder verlangsamt werden.
- Qualitative Lippensynchronität: Lippenpositionen bzw. -bewegungen werden zwischen Original und Synchronfassung abgestimmt. Dabei gibt es häufig Probleme bei Konsonanten, die mit den Lippen gebildet werden. Diese nennt man „Labiale“. Beispiel: Der englische Ausspruch „I´m sorry“ bedeutet im Deutschen „Entschuldigung“. Da bei dem „m“ jedoch die Lippen aufeinandergepresst werden, wird dies oft mit „Tut m“ ir leid“ wiedergegeben.
Vorteile
- Der Zuseher hat die Illusion, den Film im Original zu sehen.
- Die Aufmerksamkeit muss nicht zwischen Bild und Text geteilt werden.
Nachteile
- Verlust der Authentizität. Originalstimmen fallen weg.
- Deutsche Sprache wird mit Anglizismen überschwemmt (zurückzuführen auf die Vorgabe der Lippensynchronität).
Preise und Bedingungen
Die goldenen Zeiten der Filmindustrie sind vorbei. Synchronisationen müssen immer schneller angefertigt werden. Die Bedingungen für Übersetzer werden zunehmend schlechter.
Die Sprecherhonorare leiden unter Preisdumping. Der Branche kommt aber zugute, dass meist nur Schauspieler als Sprecher engagiert werden. Eine Auflistung der Sprecherhonorare in Österreich liefert der Sprecherverband voice.
Weiterführende Links
Untertitelung
Europäischer Verband audiovisueller Übersetzer / AVTE (AudioVisual Translators Europe): http://avteurope.eu/
Untertitel Forum: www.untertitelforum.de
ORF TELETEXT für Hörbehinderte: http://kundendienst.orf.at/service/technik/untertitel.html
Synchronisation (Dubbing)
Synchronverband e.V.: www.synchronverband.de/
Österreichische Sprecherverband voice: www.sprecherverband.at/voice-sprecherinnen.html
Bei weiteren Fragen schicken Sie eine E-Mail an: claudia.hagendorfer[at]text-it.at
Stand: 2014