Die Kreativität des logischen Denkens

Interview mit Mastering-Engineer Bob Katz

Anzeige

bob-katz1

Bob Katz zählt zu den bekanntesten Mastering-Engineers, nicht zuletzt wegen seiner Aufklärungsarbeit: Sein Buch »Mastering Audio« gilt als Standardwerk, seine musikalische Arbeit umfasst etwa Sinéad O’Connor oder Cassandra Wilson. Im Gespräch erzählt Katz mit seiner ruhigen, unaufgeregten wie humorvollen Art vom möglichen Ende des Lautheitskriegs (»iTunes muss generell mit normalisierter Durchschnittslautstärke abspielen!«) und gibt Tipps, wie man seine Mischungen optimieren kann. Darüber hinaus erläutert er sein »K-System«-Monitor-Controlling, das einheitliche Bedingungen bei der Abhörlautstärke gewährleisten soll.

Anzeige

In der Tontechnikpraxis ist das Problem mittlerweile jedem bekannt: Seit Jahrzehnten versuchen Künstler, Labels und Mastering-Dienstleister im Wettbewerb um die lauteste Veröffentlichung mitzuhalten oder sie zu übertreffen. In den letzten Jahren waren Alben teilweise so stark hörbar verzerrt, dass die Problematik selbst unbedarften Hörern bewusst wurde − eine Bestandsaufnahme.

Da subjektive Lautheit beim einfachen Hören zunächst immer als beeindruckender empfunden wird: Was wäre eine realistische, sinnvolle Lösung, um das »Lautheitsrennen« abzuschaffen?

Bob Katz: Die Lösung muss von außen kommen. Die CD wird leider sterben müssen. Das tut mir leid! (lacht) Das bedauere ich tatsächlich sehr. Aber dazu müssen digitale Downloads den Markt übernehmen. Die Lösung besteht für mich darin: Welche Software man auch immer zur Wiedergabe benutzt, sie sollte transparente DurchschnittspegelNormalisierung − ich betone hier transparent − verwenden, die im Hintergrund automatisch stattfindet. Im Moment gibt es noch keine vernünftige Implementierung in Playern, bis auf die Software J-River − ein audiophiler Audio- und Video-Player, der auf Mac und PC läuft.

Aber solange der Platzhirsch iTunes Normalisierung nicht standardmäßig aktiviert, wird sich nicht viel bewegen. Das wird irgendwann passieren, aber Apple lässt sich nicht in die Karten schauen. Sie wissen, dass es passieren muss. Apple hatte seinen Sound-Check-Normalisierungs-Algorithmus bereits standardmäßig in »iTunes Radio« aktiviert, diesen Streaming-Dienst allerdings mittlerweile aufgegeben. Spotify setzt einen zu hohen Durchschnittspegel samt Peak-Limiting ein, Normalisierung findet generell nur optional statt. YouTube normalisiert zu hoch bei −13 dB.

Es gibt eine Petition auf www.change.org, an der ich beteiligt bin [Petition ist inzwischen vorbei. Anm. d. Red.] − wir haben fast 5.000 Unterschriften zusammen und hoffen, dass es noch mehr werden, um die Streaming-Anbieter beeinflussen zu können, Normalisierung standardmäßig zu integrieren.

Wenn man Miley Cyrus’ Wrecking Ball im Kontext zu etwas anderem gehört hat, klang es nur kümmerlich und dünn. Bei normalisierter Wiedergabe können die Produzenten nicht länger ignorieren, dass sie ihre Musik nicht ohne Konsequenzen an die Wand fahren können.


Mastering: Limiter einstellen – Björn Schlüter – Storia Mastering

In dieser Episode sprechen wir mit Mastering Engineer Björn Schlüter über seinen Workflow im Mastering, seine hybride Mastering-Kette und das Tool, was er als erstes aktiviert: den Limiter! Wir erklären, was ein Limiter überhaupt macht, warum man ihn braucht und wie man in richtig einsetzt!

Dir gefällt das Video? Dann folge uns auf Facebook und YouTube!

Hier kannst du unseren Podcast abonnieren:

RSS Spotify | Apple Podcasts | Deezer Overcast.fm | YouTube 

Hier findest du alle Episoden in der Übersicht!


Wie sieht denn deine eigene Erfahrung mit »Lautheits«-Kunden aus? Was erwarten diese ästhetisch, und warum?

Es gibt zwei Arten von Kunden, die das wollen: Die ersten lieben den Sound von starker Kompression. Das ist schlicht deren Klangästhetik − etwa ein Teil meiner AlternativeRock-Kunden. Die anderen machen es aufgrund des Lautheitskriegs, wenn sie ihr Album im Vergleich zu anderen Platten der gleichen Stilrichtung hören. Sie finden das Ergebnis nicht »richtig« und möchten nicht die StereoAnlage aufdrehen. Ich muss beide Gruppen zufriedenstellen.

Wenn ich das erste Mal mit einem Kunden arbeite, frage ich: »Was sind deine Lieblingsplatten?« Dann höre ich ihren Mix an − wenn es die Art von Musik ist, die unter starker Kompression leidet, spreche ich das an. Wenn die Künstler mir sechs Lieblingsplatten geben, sind etwa vier davon überkomprimiert und klingen nicht gut. Aber mit etwas Glück − gerade, wenn sie ältere Musik mögen − sind zwei der Beispiele weniger laut und klingen besser. Ich erkläre ihnen das Konzept mit dem Lautheitskrieg und frage sie, ob sie ihre Platte gut oder verzerrt klingen lassen möchten. Natürlich gibt es verschiedene Stufen von »laut«. Wenn sie nur etwas wettbewerbsfähig sein wollen ohne zu großen »Schaden«, sprechen wir darüber. Aber auch ich habe laute Platte gemacht, letztlich stelle ich den Kunden zufrieden. Kürzlich hatte ich eine Blues-Band hier, die süchtig nach Lautheit war. Wir hatten ein wunderbares Master, das ihnen allerdings nicht laut genug erschien. Aber dann fanden sie eine ihrer Lieblingsplatten − nur eine! − die nicht lauter war als mein Master. Bezüglich der Lautheit meinten sie: »Wir müssen dein Master gut finden, weil wir die andere Platte lieben!« So konnte ich dem Lautheitskompromiss entgehen.

Laut Deinem Buch zählt die Pausengestaltung zwischen den Songs zu den unterschätzten Aufgaben eines Mastering-Dienstleisters. Sie würden oft als Stilmittel übersehen, um zum Fluss eines Albums beizutragen. Welchen Unterschied kann die richtige Pause zwischen den Songs machen – und was kann schiefgehen?

Katz: Das erste, was schiefgehen kann, passiert beim Anliefern der Mischungen selbst: Nämlich, wenn man die nicht in einer ruhigen Umgebung abgehört hat. Die Ausklänge am Ende der Songs sind sehr wichtig. Gerade gestern hatte ich einen Kunden, dem es sehr peinlich war, als ich ihm zeigte, dass er versehentlich den Ausklang eines Songs beschnitten hat. Er meinte: „Das habe ich wohl nicht gehört.“

Darauf mache ich Mixing Engineers oft aufmerksam, dass sie manchmal zu früh annehmen, der Song wäre bereits vorbei. Es ist immer besser, die Songs für den Mastering-Engineer mit sogenannten „Handles“ zu exportieren: Am Anfang und Ende mindestens eine zusätzliche Sekunde Puffer, am besten zwei oder drei. Dann sind wir sicher, dass du uns alles notwendige hast, um damit zu arbeiten. Wenn man die Pausen auf einem Album festlegt, muss man den Ausklang eines Songs bis zur Stille mit einberechnen. Manchmal ist dann tatsächlich nur eine Viertelsekunde Pause zwischen dem lang abklingenden Ende eines Songs und dem Beginn des nächsten.

Der normale Hörer wird denken, der Ausklang war kurz, aber in Wahrheit waren es vier Sekunden! Das liegt daran, dass ein Hörer normalerweise in einem Auto oder einer anderen lauten Umgebung hört. In einer ruhigen Umgebung nimmst Du den kompletten Ausklang wahr, und danach die minimale Pause zum nächsten Song – und empfindest es als genau richtig. Aber der normale Hörer hält es für eine lange Pause, und das funktioniert wiederum auch – weil er den Ausklang anders wahrnimmt, aber die „Gesamtspanne“ zum Durchatmen zwischen den Songs bis zum nächsten Beat die gleiche ist. Bei den Pausen ist es also wichtig, dass sie von einer erfahrenen Person in einer ruhigen Umgebung vorgenommen und auch in einer lauteren Umgebung überprüft werden.

Eine Pause, die auf Kopfhörern kurz erscheint, kann im Auto sehr lange wirken. Was die Ästhetik betrifft: Beim Übergang von einem langsamen zu einem schnellen Song würde ich keine kurze Pause lassen wollen. Wahrscheinlich würde der plötzliche Beat die Ohren erschrecken. Aber wenn ich ein Set aus drei schnellen Songs hintereinander kreiere, will ich den Übergang recht flott gestalten, sodass der Fluss beibehalten wird.

Welche allgemeinen »Misch-Fehler« erlebst du aus deiner Perspektive am häufigsten?

Das Monitoring vieler Mixing-Arbeitsplätze verdeckt oft Probleme im Bassbereich. Das kann seltsame Blüten tragen: Zum Beispiel bekommen Leute die Lautstärke der Bassdrum richtig hin, aber den Bass falsch. Und beim Mastering muss ich entweder den Bass oder die Bassdrum »opfern«, weil ich nicht immer beide optimal hinbekommen kann. In solchen Fällen empfehle ich dem Tontechniker, mir drei Stems zu schicken: Bass, Bassdrum, und den Rest der Band.

Probleme mit unkontrollierter Wiedergabe im Bassbereich liefern auch manche Software-Synthesizer, im Gegensatz zu ihren Hardware-Vorbildern …

Software-Synthesizer sind im Mix schwierig zu handhaben. Bei manchen sind nicht genügend harmonische Verzerrungen vorhanden, um einer Bassnote Definition zu verleihen. Ein gutes Werkzeug, um mit subharmonischen Problemen umzugehen, ist das »Lowender«-Plug-in der Firma Refuse, ein subharmonischer Synthesizer und mein Lieblingswerkzeug dieser Gattung.

Kürzlich hast du im amerikanischen Magazin »Stereophile« mit der PSI AVAA C-20-Bassfalle eine aktive Lösung empfohlen, die deiner Meinung nach revolutionär ist. Passive Bassfallen schaffen nur bedingt Abhilfe − aufgrund der großen Wellenlänge tiefer Frequenzen bräuchte es eigentlich sehr große Absorber für entsprechende Absorption. Wie wirkt sich die aktive Lösung aus?

Die PSI AVAA [»Active Velocity Acoustic Absorber«] C20-Bassfalle scheint auf den ersten Blick die physikalischen Gesetze aufzuheben: eine kleine, trapezförmige Box in der Größe eines Subwoofers, die maximal 50 Watt bei Pegelspitzen verbraucht, im Durchschnitt 5 Watt. Sie kontrolliert nur die Pegelspitzen und -senken innerhalb erstaunlicher 15 bis 150 Hz, ohne Artefakte, und ohne den Raum zu »überdämpfen«. Mein Abhörplatz verbesserte sich durch den Einsatz dreier AVAA-Bassfallen von sehr gut zu absoluter Spitzenklasse. Meine Basswiedergabe war noch nie so direkt, druckvoll und klar. Der klangliche Fokus geht nicht verloren, Direktheit und Stereobild werden noch verbessert. Meine Messungen bestätigen mir, dass drei AVAA-Bassfallen effektiver arbeiten als sechs 15 cm dicke passive Bassfallen, und ohne das »Überdämpfen«, das durch passive Bassfallen entstehen kann. Generell bringen passive Bassfallen nur sehr geringe Verbesserungen im Tiefbassbereich, umgekehrt behindern sie die Klarheit und Direktheit der mittleren und hohen Frequenzen.

Worauf sollte man bei mittleren und hohen Frequenzen achten?

Für die Optimierung im mittleren und hohen Frequenzbereich sollte man die sogenannten Schroeder-Kurven im Raum messen, nach denen der Roll-Off des hohen Frequenzbereichs nicht überdimensional stark sein sollte, verglichen mit Tiefen und Mitten. Viele Räume sind überbehandelt, weil der Nutzer versucht, Bassprobleme zu beheben, ohne die gesamten Auswirkungen im Blick zu haben. Du kannst die Gesetze der Physik nicht aufheben.

Lass uns mal die Abhörsituation generell betrachten: In Kinos gilt seit den 80ern ein Lautstärkestandard von 83 dB SPL, der sich als angenehmer Wert für einen Großteil des Publikums herausgestellt hat. Du empfiehlst den gleichen Standard für das generelle Arbeiten mit Audio- Monitoren, um Material in unterschied – lichen Umgebungen äquivalent beurteilen zu können …

Ich empfehle eine Monitor-Kalibrierung, die auf dem Filmton-Standard basiert. Mein System des kalibrierten Monitorings [das sogenannte »K-System«, etwa im Cranesong Avocet-Monitor-Controller als Skala integriert; Anm.d.Aut.] hat inzwischen genug Anerkennung gefunden, sodass es mehr und mehr Leute entdecken.

Was Film betrifft: Die magische Zahl dort ist eigentlich 85 dB. Das hängt allerdings von der Definition ab, je nachdem, wie man misst: 85 dB für die Kalibrierung nach dem SMPTE-Standard [Kino-Standard der »Society Of Motion Picture & Television Engineers«] und 83 dB bei Messungen mit RMS, also normalem Durchschnittspegel, was ich empfehle und für meine Monitor-Kalibrierung nutze. Das geht mit einem normalen Messmikrofon und Rosa Rauschen, ohne Dolby-eigene Messtechnik.

Filmton und Musik unterscheiden sich in ihren Anforderungen: Die Tonspur eines Films hat einen geringeren Durchschnittspegel als Musik. Du hast daher zwei Lautstärkeskalen für das kalibrierte Monitoring definiert: »K-20«, was dem Durchschnittspegel für Filmton von −20 dB RMS entspricht, und »K-14« für dynamisches Musik-Mastering von −14 dB RMS. Dabei wird die Lautstärke am Monitor-Controller angepasst, um bei unterschiedlicher Pegeldichte des Materials am Lautsprecher den gleichen Schalldruck von 83 dB auszugeben.

Genau. Was ich beim Audio-Mastering ändere, verglichen mit einer Kino-Tonspur: Ich arbeite auf einen höheren RMS-Pegel, also eine höhere »Durchschnittsdichte«, hin − der Schalldruck am Ende bleibt allerdings der gleiche. Also sagte ich mir: »Warum verwenden wir nicht einfach eine verschiebbare Skala, die den Unterschied der beiden Welten beim Arbeiten widerspiegelt?« Dazu muss die Monitorlautstärke angepasst werden. Lass uns mal von der K-14-Skala ausgehen, die bei 83 dB Schalldruck einen Durchschnittspegel von −14 dB produziert. Meiner Meinung nach entsteht damit ein gutes, dynamisches Master. Wenn man jetzt mit Filmton arbeiten möchte, wechselt man die Skala, K-20, und die wäre um 6 dB nach unten korrigiert, für geringeren Durchschnittspegel. Wenn dein Metering jetzt bei 0 ist, wären das − aus Audiosicht − eigentlich −6 dB. Um diese Änderung auszugleichen, muss das Monitoring um 6 dB lauter werden. Dann haben wir den gleichen Schalldruck am Lautsprecher wie vorher, bei geringerem Durchschnittspegel. Das gilt auch für normales Hören: Um einen Film anzuhören, der einen geringeren Durchschnittspegel hat als beispielsweise eine Audio-CD, musst du deine Monitore aufdrehen.

Dein System setzt − kurz gesagt − die Monitor-Lautstärke in Relation zum jeweiligen Durchschnittspegel. Wie muss ich mir die Einmessung auf 83 dB SPL vorstellen?

Bei meinem System definieren wir am Monitor-Controller einen Nullpunkt, bei dem als Ergebnis 83 dB SPL mit kalibriertem Rosa Rauschen herauskommen − gemessen an der Hörposition, pro Lautsprecher, in RMS. Derzeit empfehle ich das Rosa Rauschen, das Tom Holman von Dolby propagiert.

Da 83 dB pro Lautsprecher gemessen werden, erhöht sich der Gesamtpegel beider Lautsprecher auf 86 dB SPL. Bringt uns diese Erkenntnis noch andere Vorteile?

Das stimmt, das wären 86 dB mit unkorreliertem, also von Kanal zu Kanal unabhängigem Rosa Rauschen. Auf meiner Digido-Webseite habe ich eine Datei mit Vollpegel-Rosa-Rauschen, unkorreliert auf beiden Kanälen. [www.digido.com/media/downloads/ category/12-general.html] Die 86-dB-Referenz kann man verwenden, um zu testen, wie gut die beiden Lautsprecher »gematched« sind. Wenn sich das Signal in der Summe zum Beispiel nur zu 84 dB addiert, dann stimmt dein Lautsprecherpaar nicht in Frequenzwiedergabe, Ansprechverhalten und Phasenlage überein. Verwende aber nicht 86 dB zum Ausrichten, sondern 83 dB per Lautsprecher. Dadurch können wir die Methode auch auf Surround ausweiten.

In Foren trifft man auf Nutzer, die die Kalibrierung und den 83-dB-Wert falsch interpretieren und am Ende viel zu laut abhören. Was läuft falsch?

Die »K-System«-Kalibrierung ist generell für Midfield-Lautsprecher auf Mastering-Niveau ausgelegt. Der Spitzenpegel wirkt laut, wenn die Lautsprecher nicht im Midfield angeordnet sind, etwa bei Nearfields − und wenn sie keinen guten Headroom bieten. Neulich war ich bei einem Freund, der in seinem Wohnzimmer ein 5.1-System mit eher kleinen Lautsprechern und Endstufen hat. Er musste sein System auf 77 dB per Lautsprecher einmessen, weil es sonst zu laut wirkte.

Um die Spitzen bei der 83-dB-Kalibrierung zu nutzen, braucht es exzellentes Equipment. Wenn deine Endstufen-Lautsprecher-Kombination bei hohen Lautstärken verzerrt bzw. deine Lautsprecher zu nah stehen, wird die Lautstärke nicht besonders gut klingen. Das kann deine Ohren auf Dauer schädigen, allein schon wegen der Ermüdung beim Hören. Das heißt auch nicht, dass ich mein System die ganze Zeit so laut einstelle, wenn ich stark komprimiertes Material abspiele; das hat nämlich zu hohen Durchschnittspegel und klingt ermüdend. Aber dynamisches Material, abgespielt auf 83-dB-Kalibrierung als lautester Pegel per Lautsprecher klingt hervorragend und schädigt mit den gelegentlichen Ausbrüchen zum Spitzenpegel die Ohren meiner Meinung nach nicht.

Der Vorteil bei einem kalibrierten Monitor: Man weiß genau, wie laut das Material am Ende im Verhältnis rauskommt. Wenn wir die Einstellung am Monitor-Controller beobachten, können wir daraus Rückschlüsse ziehen, wie laut das Material ist. Im Hinblick auf normalisierte Wiedergabe werden sich unsere Entscheidungen beim Mischen und Mastern mit dem kalibrierten Monitoring ändern.

Kommentar zu diesem Artikel

Pingbacks

  1. Mastering: die Skalen des K-Systems › SOUND & RECORDING

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.