Gold, Platin, Diamant

Lex Barkey über Mixing, Mastering und den Loundness War

Anzeige
Lex Barkley über Mixing, Mastering und den Loundness War2(Bild: Axel@Aggro.tv (Bearbeitung: Maik Winkler))

»Wenn es knallen soll, dann ist Lex Barkey der richtige Mann.« Diese Empfehlung hört man öfter, wenn man sich nach einem Mixing- und Mastering-Engineer für Pop, Hip-Hop und elektronische Musik erkundigt. Lex Barkey hat in seinem Berliner Studio schon Scheiben von Felix Jaehn, Bausa, Haftbefehl, Jonesmann und RAF Camora veredelt. Im Gespräch verrät er uns seine Herangehensweise beim Mastering und zerstört unsere Illusion, dass der Loudness War vorüber wäre.

Geigenunterricht im Alter von sieben Jahren, zusätzlich Keyboard gelernt − der Weg von Lex Barkey führte schon früh in die Musik. Trotzdem hätte sich der sympathische Berliner bei seinen ersten Arbeiten als Musikproduzent 1997 wohl noch nicht träumen lassen, dass er zu einer echten Instanz in der deutschen Audiobranche werden würde. Heute tapeziert sich der Mixing- und Mastering-Engineer die Wände seines Flurs mit Gold- und Platin-Auszeichnungen, sogar eine Diamantplatte ist dabei. Selbst US-amerikanische Major-Produktionen bekommt Lex Barkey heute auf seinen Mastering-Tisch − eine außergewöhnliche Leistung, angesichts der renommierten US-Konkurrenz.

Anzeige

Im Interview spricht Lex Barkey mit uns über seinen Hintergrund, seine Herangehensweise und seine Technik und erklärt, warum der Lautheitswahn doch noch nicht vorbei ist.


Mastering: Limiter einstellen – Björn Schlüter – Storia Mastering

In dieser Episode sprechen wir mit Mastering Engineer Björn Schlüter über seinen Workflow im Mastering, seine hybride Mastering-Kette und das Tool, was er als erstes aktiviert: den Limiter! Wir erklären, was ein Limiter überhaupt macht, warum man ihn braucht und wie man in richtig einsetzt!

Dir gefällt das Video? Dann folge uns auf Facebook und YouTube!

Hier kannst du unseren Podcast abonnieren:

RSS Spotify | Apple Podcasts | Deezer Overcast.fm | YouTube 

Hier findest du alle Episoden in der Übersicht!


Du zählst zu den erfolgreichsten Tonschaffenden Deutschlands. Wie bist du dazu gekommen, dein Geld mit Musikproduktion zu verdienen?

Ich habe 1997 angefangen, damals als Musikproduzent und Rapper, aber auch in anderen Musikrichtungen. Mein erster Release 1997 war Trance, ich war also musikalisch wirklich sehr offen. Dann habe ich jahrelang viel für »Echte Musik« gemacht, das war das Label um Jonesmann herum. Ich habe viel Hip-Hop produziert, aber selbst gar nicht mehr gerappt, und dann vermehrt Mixing-Jobs und auch schon Mastering gemacht, wenn man es so nennen kann. (lacht) So habe ich gemerkt, dass ich da offensichtlich ein Talent besitze. Die Leute kamen zu mir und meinten, meine Rohmixe klängen besser als die fertigen Mixes, die sie von anderen bekommen und für die sie Geld bezahlen. So bin ich da sozusagen reingerutscht. Ich bin ja auch ein Technik-Freak, und die damalige Plug-in-Welle hat mich voll mitgerissen. Das war so um 2006 oder 2007.

“JEDES GENRE BENÖTIGT EIN ANDERES KLANGBILD UND ANDERE EMOTIONEN, UND DIE SETZT DU EBEN AUCH BEIM MASTERING UM.”

Gibt es für dich persönliche Meilensteine in deiner Karriere?

Meine erste große Produktion, die mir gezeigt hat, dass ich auf dem richtigen Weg bin, war mit Jonesmann der Song Fick dich, eine R’n’B-Nummer über Liebe und Herzschmerz. Ein Liebeslied, kein Rap, anders als man bei dem Titel denkt. Das war damals sogar ein Klingelton-Hit bei Jamba. (lacht)

Ein weiterer großer Meilenstein war Palmen aus Plastik von Bonez MC und RAF Camora. Das war unglaublich, dieses Album. Auch was damit passiert ist, die Rezeption der Leute, Gold, Platin. Mein Gang ist voll damit. Ich verbringe manchmal mehr Zeit mit dem Abstauben der Platten als mit der eigentlichen Arbeit. (lacht) Dann natürlich diverse erfolgreiche Produktionen für das Team Hitimpulse, wie zum Beispiel Felix Jaehn und Alma mit Bonfire. In dem Sommer liefen vier oder fünf Songs von mir gleichzeitig im Radio auf heavy Rotation. Das war ein schönes Gefühl.

Ab dann wurde alles schrittweise jeden Tag ein bisschen größer und ein bisschen cooler, und jetzt kommen die ersten amerikanischen Jobs rein, was mich sehr freut.

Lex Barkley über Mixing, Mastering und den Loundness War(Bild: Axel@Aggro.tv (Bearbeitung: Maik Winkler))

Welchen Schritt der Musikproduktion machst du eigentlich am liebsten? Bevorzugst du Mixing oder Mastering?

Ich liebe Stem-Mastern, wenn ich ganz ehrlich bin, also das Zwischending zwischen Mischen und Mastering. Da wird mir viel von den kreativen Entscheidungen abgenommen, und ich kann immer noch so viel mehr rausholen aus einem nicht so guten Mix im Vergleich zum reinen Stereo-Mastering. Ich kann einfach richtig Gas geben, und es macht wahnsinnig viel Spaß, wenn ich einen Track vorher und nachher vergleiche und merke, dass ich ihn auf ein ganz anderes Level gebracht habe. Das ist ein Gänsehautgefühl.

Du bevorzugst also Stem-Mastering, weil du noch sehr viel Einfluss nehmen kannst?

Genau. Ich kann den Künstlern dann einfach mehr bieten. Ich kann zum Beispiel nur an die Stimme rangehen oder den Song breiter machen. Ich kann einfach da angreifen, wo ich im normalen Mastering gar keine Chance habe, weil ich andere Teile des Mixes kaputtmachen würde. Wenn mir aber zum Beispiel die Synthesizer-Spur getrennt von allem anderen vorliegt und ich möchte, dass sie brachial breit klingt, dann kann ich das machen.

Das ist ja dann schon wieder Mixing, oder?

Eher nur so ein halbes Mischen. Mir werden die kreativen Entscheidungen abgenommen, beispielsweise welcher Hallraum verwendet wird oder ob die Glocken hell oder dumpf klingen sollen. Das Sounddesign ist fertig. Ich kann es aufblasen und aufpumpen, ich nenne das gerne »Enhancement«. Es macht mir am meisten Spaß, wenn ich etwas Fertiges habe und es im Detail noch aufwerten kann.

Welche Spuren forderst du für ein Stem-Mastering an?

Das kommt ganz auf den Song an. Ich gehe jetzt mal von einem Pop-Dance-Hip-Hop-Song aus, wie die Produktionen heute typischerweise sind. Da hätte ich immer gerne die Kick-Drum, Bass-Line oder Bass-Lines, 808, den Rest der Drums, tiefe Synthesizer, hohe Synthesizer. Außerdem sind natürlich die Vocals das wichtigste Element in einem Song, und wenn da im Mix grobe Fehler sind, dann verlange ich schonmal Lead-Vocals, Backing-Vocals und Send-Effekte getrennt. Es ist schon vorgekommen, dass ich 25 Spuren im Stem-Mastering hatte. Meistens sind es eher acht bis zehn Spuren, aber 25 sind schon mehrmals vorgekommen.

Aber das ist ja dann tatsächlich schon wieder ein Mix.

Jein, es ist ja schon gemischt. Da liegen zum Beispiel schon Gitarren und Piano auf einer Spur. Ich fange nicht damit an, das Attack einer Gitarre zu ändern oder noch Sachen rauszuschneiden, ich gate auch nichts, das ist alles schon erledigt. Ich arbeite viel mit Equalizern und auch mit Saturation. Enhancement eben. Das ist der schönste Teil der Arbeit, weil man Sachen schöner macht.

Was macht denn für dich ein gutes Master aus?

Das kommt ganz auf den Kunden an. Einer sagt, er hätte gerne das Lauteste, das es jemals gab. Da schlägt man innerlich die Hände über dem Kopf zusammen. Man macht es aber trotzdem, und am Ende ist man dann auch sehr zufrieden, weil man es geschafft hat. Ein anderer Kunde will ein filigranes High-End-Produkt, dann klingt das perfekte Master völlig anders. Es gibt auch Musik, Trap zum Beispiel, die ist sehr roh. Trap ist für mich der Punk der Neuzeit.

Wie meinst du das?

Früher hat man ein typisches Band-Setup genommen, einfach auf alles einen Verzerrer draufgelegt und es ganz billig aufgenommen. Es durfte auf keinen Fall irgendwie nach High-End klingen, es war ja Punk. Es war geil, dass es so geklungen hat. Heute ist das der Trap. Da werden die Drums so stark verzerrt, dass man eigentlich wirklich nur noch ein geclipptes 30-Millisekunden-Ding von einer Kick hat. So entsteht dieser Trap-Sound, übersteuert, alles verzerrt, die Vocals in ganz komischen Hallräumen oder auch nochmal verzerrt. Das ist aus der Sicht des Tontechnikers vielleicht unschön, aber es ist eben Genre-typisch und ergibt den gewünschten Effekt.

Die Herangehensweise sollte sich also immer nach der Musik richten?

Absolut! An Trap-Sachen gehst du einfach ganz anders ran, roher, das muss brachialer klingen, während du bei Piano-Geigen-Stimmen-Nummern mit viel Feingefühl arbeiten musst und einen ganz anderen Effekt erzielen willst. Im Endeffekt versuchst du beim Mastering, die Emotionen des Songs zu verstärken. Einen warmen, runden Song drehst du nicht komplett um und lässt ihn hart und kalt klingen. Er soll hinterher vielleicht noch ein bisschen wärmer, noch ein bisschen schöner, vielleicht noch ein bisschen aufgeräumter sein. Andere Nummern dagegen, gerade im Dance-Bereich, müssen an die Wand gefahren werden, damit sie diesen Lautstärke-Effekt im Gehirn auslösen, der dich in Party-Stimmung versetzt.

Ist Lautheit wirklich noch so wichtig? Der Loudness War ist doch vorbei …

Nee, der ist lange nicht vorbei, der hat sich gerade geändert. Wir sind umgezogen auf ein anderes Schlachtfeld. Heute wird alles Loudness-normalisiert, bei Spotify zum Beispiel. Das Problem ist aber, dass sich diese Funktion abschalten lässt. Spielt der Kunde die Musik nicht normalisiert ab, ist jedes Lied wieder unterschiedlich laut. Genau deswegen müssen wir wiederzusehen, dass die Musik laut ist. Denn geben wir heute ein Master ab, das sich an den Vorgaben von Spotify orientiert, ist das okay, solange die Normalisierung aktiv ist. Aber schaltet der Kunde die Loudness Normalisation ab, hat ein solches Master nicht einfach nur ein bisschen wenig Druck − es ist einfach halb so laut. Einfach viel zu leise. Die Funktion sollte eigentlich ein Segen sein, aber sofort versuchen alle, das System zu umgehen.

Früher hat man gegen den Limiter gearbeitet, heute arbeitet man gegen den Analyzer. Einfach ein anderes Schlachtfeld. Leider hört Spotify zu wenig auf die Industrie, es gibt ja nicht mal Whitepaper von ihnen, kein Infomaterial. So müssen wir uns einfach an den neuen Kampf gewöhnen.

Wie sollte man denn deiner Meinung nach das Problem angehen?

Es bräuchte einen Standard. Das, was sie alle versuchen, YouTube, Apple Music usw., das ist ja toll. Aber es müsste eben wirklich standardisiert sein. Nicht abschaltbar, und auch in Abspielgeräten integriert. Wenn ich jetzt Musik über Spotify oder Apple Music höre, dann ist einfach alles leiser. So funktioniert die Normalisierung eben. Die Musik wird leiser abgespielt, als wenn ich direkt ein MP3 nehme.

Das ist natürlich für den Konsumenten nicht perfekt, weil er seine Kopfhörer nicht richtig laut kriegt, und er denkt sich: »Das ist leise, das gefällt mir nicht.« Es müsste da einfach eine Standardisierung geben, eine Norm, an die sich alle Geräte halten. In der Fernseh- und DVD-Welt schaffen sie es ja auch, so etwas durchzusetzen, aber in der Musikproduktion geht das anscheinend nicht. Dabei wäre das so schön.

Kommen wir nochmal zurück zum Mastering selbst. Wie gehst du einen Auftrag an?

Erstmal muss ich natürlich den Song kennen. Danach pegele ich normalerweise erstmal meine Ohren. Ich mache zum Beispiel morgens ein kleines Gehörtraining, oder ich höre Musik. Ich habe Playlisten, nach Genres geordnet, mit Songs, die ich klanglich gut finde und die ich schon in vielen Hörumgebungen gehört habe, also auch im Auto und auf anderen Anlagen. Die sind meine Norm, wenn du so willst. Stücke, bei denen ich denke, dass mein aktuelles Projekt klanglich dazu passen sollte.

Dann setze ich mich an den Song und versuche zu verstehen, was daran nicht stimmt. Wo sind die Fehler? Dann merke ich vielleicht, dass da eine Gitarre spielt, die der Mischer zu sehr betont hat, alles um diese Gitarre herum aufgebaut hat, wodurch Bässe und Höhen zu kurz kommen. So etwas stört die Balance des Songs, und ich versuche dann, diese Balance wiederherzustellen. Ich suche den Fehler, erkenne und korrigiere ihn, und schon habe ich einen Track, der so funktioniert.

Masterst du also in mehreren Phasen? Erst die Korrektur, dann das Verschönern?

Es sind etwa drei bis vier Schritte. Ich fange mit der Balance und der Fehlerkorrektur an. Dann kommt das Enhancement. Dann folgt die Kompression, und als letzten Schritt gehe ich das Limiting an. Das darf man sich aber nicht zu strikt getrennt vorstellen, ich springe immer wieder hin und her. Nur weil ich am Anfang denke, ich hätte die Balance gefunden, heißt das nicht, dass ich sie bis zum Ende so lasse. Der Song verändert sich nach dem Komprimieren, er verändert sich nach dem Limiting, ständig unterliegt alles einer Veränderung, alle Teile greifen ineinander wie Zahnräder. Das heißt also, ich springe immer wieder zurück an den Anfang, schau da noch mal, verändere ein Setting, probiere aus. Nichts ist fest. Am Ende soll alles zusammen funktionieren. Das ist es.

Welche Filter oder EQs setzt du ein, um die Klangbalance herzustellen?

Alles Mögliche. Das ist schwierig. Manchmal greife ich zuerst zum Shelf, weil ich höre, dass in den Höhen etwas fehlt. Ein paar Plug-ins sind sehr cool, zum Beispiel der Manley Massive Passive von UAD. Mein neuer Lieblings-EQ ist der Azure von Acustica Audio, es kann aber auch mal einfach der Pro-Q2 von FabFilter sein, der ist auch unglaublich geil. Oder ich mache es extern, zum Beispiel mit dem Crème von Tegeler Audio, wo ich mir den Shelf einstelle und dann einfach booste und schaue, was passiert. Das ist manchmal cooler. Ich liebe halt Knöpfe, und es ist einfach geiler als mit der Maus an den Zeigern rumzuschrauben.

Greifst du lieber auf altbekannte Werkzeuge zurück?

Natürlich habe ich so ein paar Go-to-Sachen, auf die ich immer wieder zurückgreife, Sachen, die ich seit Jahren kenne. Seit Längerem verlasse ich mich zum Beispiel auf den Crème von Tegeler Audio Manufaktur, der ist bei mir auf jedem Master drauf. Ganz neu dagegen ist das Weiss DS1-MK3 Plug-in von Softube, das mich schwer begeistert.

Wie hörst du ab?

Meine Abhöre sind PSI Audio A21-M, die haben mein Hörvermögen umso einiges erweitert. Ein ganz großes Problem für mich mit Mastering- und Mixing-Boxen ist immer, dass sie schrecklich klingen, bis du sie zu einem bestimmten Punkt gebracht hast. Die PSIs nicht. Die klingen nicht schrecklich, sie sagen dir einfach, wo die Fehler liegen. Es geht nichts durch, was du nicht hörst, aber es tut halt nicht weh. Dadurch ermüden meine Ohren nicht, und ich kann auch nach 12 Stunden Mastering-Marathon immer noch einen Song machen. Ich saß auch schon 18 Stunden vor den Lautsprechern, weil es mal wieder kurz vor knapp war mit einem Projekt, und es hat trotzdem funktioniert.

Und der Sweet-Spot! Ein unglaublich schön breiter Sweet-Spot. Bei den Speakern vorher durfte ich meinen Kopf nicht um 20 cm bewegen. Der ganze Song klang anders, total verschoben. Mit den A21-M kann ich mich hier im Kreis bewegen, und es klingt überall gleich.

Ist es nicht gefährlich, wenn ein Lautsprecher so gut klingt?

Natürlich sind die superehrlich, die machen deinen Demo-Mix nicht schön. Manche Monitore machen das, da klingt alles immer gleich toll. Auf solchen Lautsprechern kann man nicht richtig arbeiten. Die zeigen dir keine Fehler. Gerade der Bereich 4 kHz bis ganz oben … erst mit den PSI Audio hat es angefangen, dass ich auch ganz oben, bei 10, 11, 12 kHz, wirklich Unterschiede hören konnte. Vorher war das einfach nur ein Band. Man hat zwischen 10 und 12 kHz gearbeitet oder zwischen 8 und 10 kHz. Mit den PSIs war es plötzlich so, dass ich bei 11,3 kHz gelandet bin, und es war auch nur genau da richtig, schon 11,2 kHz war nicht mehr so gut. Ich bin einfach viel genauer geworden.

Vielen Dank für das Gespräch!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.