Objektbasierte Musikproduktionen

Fraunhofer SpatialSound Wave

(Bild: Frauenhofer IDMT, Tobias Heinl)

Die SpatialSound-Wave-Technologie des Ilmenauer Fraunhofer IDMT ermöglicht die objektbasierte Audiowiedergabe im 2D- und 3D-Raum. Grundlage dieser Technologie stellt die langjährige Forschung im Bereich der Wellenfeldsynthese dar, die jedoch aufgrund der sehr hohen Lautsprecherzahl kaum flexibel und kostengünstig realisiert werden kann. Dies ändert sich mit SpatialSound Wave. Ein SpatialSound-Wave-System bietet gegenüber herkömmlichen Wiedergabesystemen mehrere Vorteile. Diese sind beispielsweise ein vergrößerter Sweet-Spot sowie die Möglichkeit, eine Audioproduktion kompatibel für beliebige Lautsprecher-Setups zu erstellen. Wie eine Audioproduktion für ein solches System erstellt werden kann, soll hier genauer beleuchtet werden.

Während vor rund 20 Jahren der 5.1-Surround- Sound als Neuheit der Audiowiedergabe in aller Munde war, wird in vielen industriellen Bereichen mittlerweile die dreidimensionale Tonwiedergabe gewünscht. Für das Hörerlebnis bedeutet dies, dass neben der horizontalen Hörebene nun die vertikale Achse ober oder unterhalb des Hörers hinzukommt. Zwar sind solche Systeme für den Heimanwender noch nicht verfügbar, jedoch existieren immer mehr Installationen in Kinos, Live- und Eventbeschallungen, Showrooms, Entertainment- Rides sowie Planetarien. Für diese Anwendungsgebiete ist vor allem die objektbasierte Musikproduktion gefragt. Genau dieses Themas haben sich das Fraunhofer IDMT und das SAE Institute Köln angenommen und in mittlerweile zwei Projekten-Projekten gezeigt, welche kreativen und technischen Möglichkeiten das SpatialSound-Wave-System dafür bietet.

Anzeige

Im ersten Projekt 2014 ging es zunächst um die grundlegende Herangehensweise an eine professionelle, objektbasierte Musikproduktion im Tonstudio, die auf stationäre SpatialSound-Wave-Systeme abgestimmt ist. Die zweite Untersuchung 2016 drehte sich um die mobile Wiedergabe von objektbasierten Musikproduktionen in einem Fahrzeug, das als Prototyp vom Fraunhofer IDMT für die Audi AG entwickelt wurde.

Objektbasierte Audiowedergabe

Hinter dem Begriff der objektbasierten Tonwiedergabe verbirgt sich ein neuer Ansatz, Audioinhalte zu produzieren, zu speichern, zu übertragen und wiederzugeben. Bisher werden in der klassischen Produktion kanalbasierte Wiedergabesysteme genutzt, welche die genaue Kanalanzahl (zwei Einzelsignale für Stereo oder sechs Signale für 5.1 Surround) in einer Datei abspeichern. Die erstellte Produktion muss daher auf dem gleichen Lautsprecher-Setup wiedergegeben werden, damit das abgespielte Material der Produktion entspricht.

Bei der objektbasierten Audiowiedergabe ist dies nicht der Fall. Dabei wird statt eines einzelnen Kanals ein Audio-Objekt in einer Audio-Szene gespeichert und mit Wiedergabe-Parametern, wie beispielsweise der genauen Position als Koordinate, versehen. Dieses Sound-Objekt kann nun mit einem beliebigen SpatialSound-Wave-System wiedergegeben werden, weil ein »Spatial Audio Renderer« die gespeicherten Klangeigenschaften in Echtzeit für das angeschlossene Lautsprechersystem berechnet. Dafür kennt der Audio Renderer die Positionen und Klangeigenschaften der installierten Lautsprecher. Die objektbasierte räumliche Tonszene ist so mit allen SpatialSound-Wave-Systemen kompatibel und nicht (wie bei kanalbasiertem Audio) an ein festes Wiedergabe-Setup gebunden.

Objektbasierte Musikproduktion

Die grundsätzliche Herangehensweise an eine objektbasierte Musikproduktion ist recht ähnlich zum herkömmlichen, kanalbasierten Ansatz. Zunächst muss der Klang der jeweiligen Instrumente durch die Aufnahme und den Mixing-Prozess wunschgemäß geformt werden. Eine Bearbeitung mit Equalizer, Kompression sowie Editing der Aufnahmesession entspricht also der üblichen Produktionsweise und ist richtet sich nach der stilistischen Ausrichtung der Musik. Die Mischung des Materials endet allerdings nicht in einer finalen Datei, sondern bleibt in Form der bearbeiteten Mehrspur-Produktion erhalten und wird lediglich der Übersicht halber in mehrere Subgruppen zusammengefasst. Damit ist die objektbasierte Bearbeitung vorbereitet, und im nächsten Produktionsschritt werden die einzelnen Gruppen in die objektbasierte Umgebung übertragen.

Audio Authoring

Im Workflow einer objektbasierten Produktion kommt ein neuer Arbeitsschritt im Bereich des Mixings und Masterings hinzu: der Authoring-Prozess. Bei diesem Prozess werden die Audio-Objekte innerhalb der »Spatial Audio Scene« platziert und dem Objekt verschiedene Wiedergabe-Parameter zugewiesen. Eine Automation ist dabei auch möglich, und so können die Objekte innerhalb der Audio-Szene umherfahren oder an andere Positionen springen. Erst durch den Authoring- Prozess ist die objektbasierte Mischung abgeschlossen.

Im akustischen Labor des Fraun – hofer IDMT in Ilmenau besteht das SpatialSound-Wave-System aus 20 Kling&Freitag CA106- Lautsprechern, während das am SAE Institute in Köln temporär installierte System 25 TS-Nano- Lautsprecher von Seeburg und einen zusätzlichen Subwoofer umfasste. (Bild: Frauenhofer IDMT, Tobias Heinl)

3D-Studio Setup

Das erste gemeinsame Forschungsprojekt des SAE Institute Köln und des Fraunhofer IDMT im Jahr 2014 beschäftigte sich neben der grundlegenden Herangehensweise an eine objektbasierte Popmusik-Produktion auch mit der Übertragbarkeit der Musikmischung auf unterschiedliche SpatialSound-Wave-Systeme.

Der Authoring-Prozess fand dabei zunächst auf einem im SAE Institute Köln installierten Setup statt und wurde anschließend im akustischen Labor in Ilmenau überprüft. Die Übertragbarkeit der Musikproduktionen war trotz der unterschiedlichen Räume und Systeme absolut gegeben. Es mussten lediglich kleinere EQ-Anpassungen aufgrund der anderen Lautsprechertypen vorgenommen werden.

Eine interessante Erkenntnis war, dass die SpatialSound-Wave-Systeme keine klare Ausrichtung aufwiesen und sich die Hörer innerhalb der Lautsprecher-Setups frei bewegen konnten, was ein Herausstellungsmerkmal dieses neuen Hörerlebnises ist. Geht der Hörer näher an das Audio-Objekt mit der Gesangsstimme heran, so entfernt er sich beispielsweise von dem Objekt mit der Solo- Gitarre. Die Audio-Szene beinhaltet also keineswegs eine statische, vorgefertigte Musikproduktion, sondern interagiert mit dem Hörer und kann von diesem individuell beeinflusst werden.

Der Audi Sound Concept Q7 WFS war als reines Wellenfeldsynthese- Fahrzeug geplant. Daher besteht das Audiosystem aus 62 Lautsprechern, die für eine objektbasierte Audiowiedergabe mit der SpatialSound Wave- Technologie nicht allesamt benötigt werden. (Bild: Frauenhofer IDMT, Tobias Heinl)

Audi Sound Concept

Durch das objektbasierte Audiosystem soll eine bessere Kompatibilität zwischen verschiedenen Fahrzeugen gewährleistet werden. Aktuell verbauen alle Hersteller eine größer werdende Anzahl an Lautsprechern im Fahrzeug und sind stets darum bemüht, eine Stereomischung plausibel für alle Insassen zu ermöglichen. Die Nutzung einer objektbasierten Wiedergabetechnologie wie SpatialSound Wave ermöglicht dies von sich aus.

Das aktuelle Forschungsprojekt des Ilmenauer Forschungsinstituts und der Kölner SAE wird nun im Rahmen der 29. Tonmeistertagung in Köln (17. – 20.November) vorgestellt. Diesmal beschäftigte sich das Team mit der Frage, welche klanglichen Unterschiede zwischen einem 3D-Studio-Setup und einem 2D-SpatialSound-Wave-System in einem Auto entstehen und wie sich diese Unterschiede auf den Produktionsprozess auswirken.

Hierfür verwendete das Team ein Konzeptfahrzeug, basierend auf einem Audi Q7, in dem ein Wellenfeldsynthese-System mit 62 Lautsprechern integriert wurde.

Fazit

Über den Klang eines neuen Systems zu schreiben, ist eine extrem schwierige Aufgabe. Jeder hat eine etwas andere Wahrnehmung, die auf unterschiedlichen Erfahrungen und Vorlieben beruht. Deshalb sollte man sich SpatialSound Wave am besten selber anhören, um sich ein eigenes Bild von der neuen Technologie machen zu können. Seit der Veröffentlichung der SpatialSound-Wave-Technologie wurden mittlerweile mehrere Systeme für verschiedene Applikationen in Europa installiert, u. a. für die Bregenzer Festspiele, im Zeiss Planetarium in Jena, im Opernhaus Zürich, im Mediendom Kiel und im Münchner Tonstudio zaraproduction.

Ich finde das Themengebiet der objektbasierten Audiowiedergabe sehr spannend und sehe viele zukünftige Anwendungsgebiete im Bereich multimedialer Applikationen. Zum Klang ist zu sagen, dass Hallräume realer wirken, Instrumente im Mix besser herauszuhören sind und nicht mehr nur durch einen Equalizer in das doch immer zu enge Stereofeld gezwängt werden müssen. Was mit kanalbasierten Surround-Formaten begonnen wurde, wird mit dem objektbasierten 3D-Sound erweitert und durch die uneingeschränkte Übertragbarkeit zwischen den Systemen erheblich verbessert.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.

Das könnte Sie auch interessieren: