Fix My Mix

Mixing Tutorial: Mixing mit KI

Anzeige

Künstliche Intelligenz ist auf dem Vormarsch und wird mittlerweile auch in vielen Plug-ins eingesetzt. Diese sollen uns die Arbeit abnehmen und Zeit sparen. Aber kann die KI wirklich schon selbständig mixen? Und was für eine Rolle spielen wir Menschen noch bei dem Prozess?

Waldemar Vogel

Anzeige

 

In dieser Folge möchten wir uns mal mit dem Einsatz von Künstlicher Intelligenz beim Mixen von Musikproduktionen beschäftigen. KI ist ja schon seit einiger Zeit in aller Munde und natürlich auch nicht an uns spurlos vorbei gegangen. Da das Thema aber sehr weitläufig und komplex ist, möchten wir uns hierbei ausschließlich auf die Praxis beschränken und einen Song mithilfe solcher Tools mischen. Dabei unterscheiden wir nicht, wie genau die KI im Plug-in zum Einsatz kommt, sondern gehen nur davon aus, dass sie laut Hersteller implementiert ist.

Für unser erstes Beispiel möchten wir einen Song schnell und einfach finalisieren – einen guten Grundsound einstellen, ausgehend von der Situation eines Musikers, der z.B. ein Demo ohne detaillierte technische Kenntnisse fertigstellen will. Dafür benutzen wir den Mastering Assistant von Logic Pro. Dieser ist in der aktuellen Version der DAW implementiert und somit kostenlos. Er analysiert kurz das Audiomaterial auf dem Output und gibt uns nach nur wenigen Sekunden den finalen Sound aus. Die Musik klingt lauter, präsenter und deutlich besser. Man kann hier zwar nicht von einem professionellen Mastering sprechen, aber das Ergebnis ist erstaunlich gut. Vor allem, wenn man bedenkt, dass wir nichts gemacht haben, außer das Plug-in einzuschalten. Schneller und einfacher geht es wirklich nicht. Sollte man jedoch, wie in unserem Fall, nicht zu 100% mit dem Klang zufrieden sein, gibt es leider nur sehr wenige Einstellungsmöglichkeiten, um das zu ändern, sodass man immer an die Vorgabe der KI gebunden ist.


Studioszene 2024 – Erfolgreiche Radiosongs mit AI Vocals produzieren

In dieser Masterclass während der Studioszene 2024 nimmt Dich Produzent Kalli Reinhardt (Lena, Nico Santos) mit in die Welt der Künstlichen Intelligenz und zeigt, wie er bereits AI Vocals in bekannten Radio-Hits eingesetzt hat, ohne das es auffällt. Dabei erklärt er, was AI-generierte Vocals sind und wie sie die kreative Landschaft der Musik verändern. Kalli zeigt Dir außerdem die Vorteile und Herausforderungen dieser Technologie und präsentiert Beispiele aus bekannten Radiosongs. Er zeigt dir, wie du AI-Vocals nahtlos in deine Produktionen integrieren und verbessern kannst. Erhalte wertvolle Tipps und entdecke die neuesten Tools zur Erstellung und Bearbeitung von AI-generierten Vocals.

>> Jetzt Ticket sichern! <<


Eine deutlich professionellere Lösung bietet das Ozone 11 von iZotope. Auch hier ist eine KI verbaut, die einen Teil des Songs analysiert und uns dann eine vorgefertigte Kette von mehreren Modulen wie z.B. EQ, Kompressor, Limiter usw. anbietet. Und diese vorgegebenen Einstellungen klingen nicht nur deutlich besser, sondern es gibt auch viel mehr Möglichkeiten, den Sound nachträglich an seine Vorstellungen anzupassen – entweder sehr oberflächlich mit einigen einfachen Reglern und Presets für globale Änderungen oder mit detaillierten Einstellungsmöglichkeiten aller Parameter in einer zweiten Ansicht. Abhängig davon, welchen Teil des Songs wir analysieren, bekommen wir natürlich auch sehr unterschiedliche Voreinstellungen.

Für unser zweites Beispiel wollen wir die KI nutzen, um Gesang und Akustikgitarre automatisch mit einem EQ zu bearbeiten. Dafür laden wir den Sonible smart:EQ4 auf beide Spuren. Nachdem die Plug-ins das Signal analysiert haben, wird auch sofort eine EQ-Kurve vorgeschlagen. Wichtig hierbei ist allerdings, dass wir in dem Plug-in genau definieren sollten, welches Signal es gerade bearbeitet. Geben wir z.B. bei Gesang die Kategorie Drums vor, ist die resultierende EQ-Kurve nicht sinnvoll und wirkt sich sogar negativ auf den Klang aus. In unserem Fall macht die KI aber einen guten Job. Der Vorschlag ist sehr sinnvoll und verbessert das Signal. Es entspricht allerdings nicht durchweg unserer Klangvorstellung, sodass auch hier wieder mehrere Parameter angepasst werden müssen. Das ist zwar relativ einfach möglich, setzt aber natürlich voraus, dass man entsprechende technische Kenntnisse und die Erfahrung haben muss.

Im dritten Beispiel möchten wir die Lautstärkeunterschiede im Gesang nicht aufwendig manuell mit dem Fader automatisieren, sondern mit dem GainAimPro Plug-in von NoiseWorks durch die KI steuern lassen. Und sobald die Spur einmal analysiert ist, regelt das Plug-in auch schon automatisch die Lautstärke. Auch das funktioniert im Grunde gut und einfach. Das Plug-in unterscheidet zwischen Gesang und z.B. Atmern und regelt entsprechend hoch oder runter. Aber auch in diesem Fall ist nicht alles sofort perfekt, sodass wir zusätzliche Einstellungen anpassen müssen, um ein wirklich gutes Ergebnis zu erzielen.

Screenshot
Der smart:EQ4 von Sonible wurde zum EQen der Lead-Vocals verwendet. Das GainAimPro Plug-in von NoiseWorks hat die Lautstärkeunterschieden im Gesang ausgeglichen, und Ozone 11 von iZotope wurde auf dem Stereo Bus eingesetzt, um den Song zu finalisieren.

Und egal wie viele weitere Plug-ins wir in diesem Mix noch verwendet haben, es zeigt sich immer die gleiche Tendenz. Die KI gibt uns schnell und unkompliziert eine gute Ausgangslage. Es versteht die technischen Anforderungen sehr gut. Und die Spuren klingen in 70% der Fälle direkt besser. Das spart zwar viel Zeit und Kopfzerbrechen, jedoch gibt es uns auch immer eine bestimmte Richtung vor, unabhängig davon, ob das zu dem Song passt. Wir müssen also jedes Mal entscheiden, ob das sinnvoll ist, und entsprechende Änderungen vornehmen.

Auch wichtige Zusammenhänge oder kreative Entscheidungen kann die KI nicht nachvollziehen. So wurden z.B. Akustikgitarren und Vocals immer brillant und präsent abgebildet. Unabhängig davon, ob sie eine wichtige Rolle spielen oder eher im Hintergrund sind. Die KI scheint immer einem bestimmten Muster oder vorgegebenen Parametern zu folgen.

Bei der Analyse lief ebenfalls nicht immer alles reibungslos. Geben wir den Plug-ins eine sehr laute und dichte Stelle zum Analysieren, können die vorgeschlagenen Einstellungen sich in den ruhigen Passagen durchaus als unsinnig erweisen. Oder wir bekommen einfach unterschiedliche Einstellungen, bei mehrfachem Analysieren von ein und derselben Stelle im Song.

Und so sehe ich die KI viel mehr als ein Hilfsmittel, das uns die Arbeit erleichtern soll – Vorschläge machen, neue Ideen bringen und technische Prozesse erleichtern –, und viel weniger als ein eigenständiges und vollautomatisches Tool, das ganze Mixe eigenständig ausführen kann.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.