Wie laut geht es noch?

Loudness War – Interview mit Lautheitsforscher Rudi Ortner

Anzeige
loudness-war1
(Bild: Matthias Zerres)

 

»Wir wollten fliegende Autos, sie gaben uns 140 Zeichen.« Das formuliert die Schmähschrift einer Gruppe um PayPal-Mitbegründer Peter Thiel. Der Satz beschreibt die Resignation über große Utopien der Vergangenheit: Abgesehen von der Entwicklung des Internets hat sich scheinbar wenig Grundlegendes getan. Die genannte Anspielung auf Twitter bezüglich der Reduktion von Daten statt ihrer Weiterentwicklung lässt sich problemlos auf die Musikindustrie übertragen: MP3, Bluetooth-Codex, Datenkompression generell und verringerter Dynamikumfang haben die letzten zwei Jahrzehnte musikalischer Massenmedien geprägt. Die verringerte Dynamik entstand dank des Lautheitsrennens um immer lauter wirkende Mischungen.

Anzeige

Rudi Ortner, Produzent und Redakteur des ORF-Jugendkultursenders Radio FM4, hat zur Entwicklung der Lautheit geforscht und eine Master-Arbeit (Ortner, Rudolf. Je lauter desto bumm! The Evolution of Loud. webthesis.donau-uni.ac.at/thesen/91476.pdf) verfasst, für die er mehr als 10.000 Musiktitel aus über 60 Jahren nach Lautheits- und Frequenzkriterien untersucht hat, um die klangliche und dynamische Entwicklung der Musik zu erforschen.

Zum Thema kam er durch seine Arbeit beim Rundfunk. »Dort habe ich seit 15 Jahren mit CD-Produktionen zu tun, die immer lauter wurden.« Ausschlaggebend war das Al – bum Of The Blue Color Of The Sky der amerikanischen Indie-Band OK Go. »Die Band hat vor allem durch ihre Videos Breitenwirkung erlangt. Beim Betrachten der Musik auf YouTube klingt das Ergebnis ganz brauchbar, weil man sich auch auf den optischen Aspekt konzentriert.« Ein Titel des Albums sollte auf eine CD-Kompilation. »Als ich den Titel von der Plattenfirma bekam, dachte ich, da sei etwas schiefgelaufen, der Titel klang deutlich verzerrt. Als ich ihn nochmal anforderte, war der Klang immer noch unbrauchbar.« Da wurden ihm die Ausmaße des Lautheitskrieges zum ersten Mal bewusst.

Trotzdem sei es eigentlich Nonsens, sich zu beschweren, dass Musikproduktion lauter geworden ist: »Es ist vielmehr so, dass man als Hörer inzwischen andere Hörgewohnheiten herausbildet. Wenn wir auf die Anfänge der Musikvervielfältigung zurückblicken, die Aufzeichnung auf Wachsrollen: Damals wurde vor allem auf die Stimme Wert gelegt. Sänger wie Enrico Caruso wurden zu ›Recording Artists‹, weil sie besonders laut ›schreien‹ konnten.« Der Grund lag im Prinzip der Wachsrollentechnik: »Man konnte nur eine Handvoll Kopien von einer Aufnahme machen, danach musste der Sänger jedes Mal neu ›reinschreien‹. Das ist ziemlich anstrengend.« Schließlich habe das Prinzip der Nachahmung gegriffen. »Andere wollten an dem Erfolg mit einem ähnlichen Produkt teilhaben.«

loudness-war2
Frequenzempfindlichkeit des menschlichen Gehörs: Mitten werden besonders laut wahrgenommen, Bass und Höhen dagegen mit abgesenkter Empfindlichkeit. Bei lauten Produktionen werden des wegen gerne die oberen Mitten »gekitzelt«, um mehr wahrgenommene Lautheit zu erzielen.

Gesteigerte Tonhöhe = Wahrgenommene Lautheit 

Das Streben nach Lautheit bei Musik ist indes nicht erst durch die Möglichkeit zur Aufzeichnung entstanden: Ortner beschreibt die Entwicklung des Kammertons, der sich in den letzten 200 Jahren nach oben geschraubt hat: Während eine Stimmgabel aus Händels Zeiten noch 392 Hz als Kammertonhöhe vorwies, liegt der heutige Standard bei 440 Hz, Rundfunkorchester sind teilweise bei 444 Hz angelangt, in Einzelfällen noch höher − was die Tonhöhe alter Werke verschiebt. »Da geht es um Brillanz und damit indirekt auch Lautheit. Wenn ich bei einem Kammerkonzert für zwei, drei Gäste weitere Zuhörer einlade, sind die Instrumente schwerer zu hören. In der Folge sind große Orchester entstanden, um mehr Leute unterhalten zu können. Wenn bereits 100 Musiker auf der Bühne stehen, wird die Tonhöhe hochgestimmt, um die Durchsetzungsfähigkeit zu erhöhen. Das Gehör wird empfindlicher, wenn der Sound heller beziehungsweise schriller wird.«

In den 1950er Jahren kamen dann E-Gitarren auf, mit eigenem Frequenzspektrum, dazu Kompressoren, um den Dynamikumfang der Musik für das begrenzte Medium einfangen zu können. »Der Dynamikverlauf von Produktionen der 1960er-Jahre war auf das damalige Hauptmedium Radio zugeschnitten. Zu der Zeit besaßen die wenigsten Hörer eine passable Anlage zu Hause, das Material musste im Radio gut klingen. Dynamisch ist jede Produktion von damals schlechter als eine aus den 1990ern. Radio übertrug die Frequenzen unterhalb von 150 Hz nicht mehr, also vernachlässigten die Produktionen den Bassbereich.«

Übersteuerung

In den 1980er-Jahren waren Hi-Fi-Anlagen als Wiedergabemedium verbreitet. »Der Technologieschub beim Konsumenten wurde von der Musikindustrie bedient, mit großen Produktionen in teuren Studios und gut klingenden Platten.«

Und heute? »Es gibt eine große Masse an neuen, jungen Hörern, die das Medium Radio immer weniger als Musiklieferanten wahrnehmen. Die sind mit Mobile Devices unterwegs und besitzen keine Stereoanlage − Kopfhörer ins Smartphone und los geht’s. Da geht es um den Content, der muss jederzeit verfügbar sein.« YouTube sei ein Beispiel für den Vorzug von Verfügbarkeit gegenüber der Qualität. »Ich gehe davon aus, dass beispielsweise OK Go die Entscheidung trafen: ›Unsere CD klingt vielleicht auf guten Lautsprechern schlecht, aber es muss für unsere Videos funktionieren.‹ Die Band verkauft dadurch ihre Live-Shows, verdient damit ihr Geld und wird aufgrund des Bekanntheitsgrads gebucht, der durch die Videos entstanden ist.«

loudness-war3
Die Wurzel allen lauten »Übels«? Für manche — für andere lediglich eine ästhetische Weiterentwicklung der Musikbearbeitung: Waves L1-Peak-Limiter, Mitte der 90er-Jahre veröffentlicht und mittlerweile in der dritten Generation samt Multiband-Maximierung erhältlich

Warum die starke Verzerrung auf der Plattform funktioniert? »Auf kleinen Computer-Lautsprechern realisiert der Hörer die Verzerrungen nicht als solche, sondern eher als ›Exciter‹, das Ergebnis gaukelt mehr Präsenz vor. Dadurch, dass die Frequenzen verzerrt werden, klingen sie heller, werden hervorgehoben. Im direkten Vergleich gehört, würde ein ›brav‹ gepegeltes Original zunächst dumpf wirken.«

Welche Frequenzen vom menschlichen Gehör besonders laut wahrgenommen werden? »Die Mitten und oberen Mitten − grob 900 Hz bis 3,4 kHz. Da fällt jedes dB auf. Im Bassbereich kann ich keine subjektive Lautheit erzeugen, nur Energie vermitteln.« Ortner verweist auf die Fletcher-Munson-Kurve, die nicht-lineare Wahrnehmung des menschlichen Ohrs bei unterschiedlichen Lautstärken: Gerade bei geringen Lautstärken nimmt das Ohr den Bass- und Höhenbereich weniger deutlich wahr. Zur Messung der wahrgenommenen Lautheit muss der Frequenzgangs passend gewichtet werden. Ortner: »Wird derselbe Mix mit leicht unterschiedlichem Pegel im Blindtest abgespielt, gewinnt immer das lauter abgespielte Stück.« Das liege auch daran, weil bei höherer Lautstärke ein breiterer Frequenzbereich wahrnehmbar wird.

Wer dementsprechend »laut« produziert, riskiert bei geringem Dynamikumfang zunächst höhere Aufmerksamkeit, aber auch schnelle Ermüdung beim Hörer − allerdings hänge das auch von Hörumgebung und Abhörlautstärke ab, meint Ortner: »Wenn ich mir das Ergebnis auf dem Handy anhöre, ist mir die Qualität egal. Meine elfjährige Tochter konsumiert Musik, indem sie auf dem iPad ein YouTube-Video nach dem anderen ansieht, in dem Fall leise abgespielt. Für sie ist es kein Thema, wie das klingt. Wenn ich ihr die gut klingende CD gebe, findet sie das auch gut, aber im Normalfall geht es primär um den Content. Sie hört auch nicht über Kopfhörer, sondern direkt auf dem Gerät − so wird das Gehör heute sozialisiert. Eine andere Ausgangssituation als in den frühen 2000er-Jahren.

Den Markt für Klang gibt es nach wie vor − für Leute, die sich FLACs, High-Resolution-Dateien oder auch Vinyl kaufen.«

Mehr Dynamik

Musikproduktion war indes − das zeigt Ortners Abriss der letzten Jahrzehnte − immer technischem Wandel unterworfen: Die Lautheit von Produktionen stieg erwartungsgemäß über die Jahre, der Zeitraum von 1979 bis 1984 gilt mit durchschnittlich knapp −18 LUFS als der leiseste. Das hänge laut Ortner mit der Einführung der CD zusammen, die einen höheren Rauschabstand als Vinyl zulässt. Bei der Auswahl der Musikstücke zur Analyse hat er sich für Verkaufszahlen entschieden statt einzelne Genres zu betrachten. »Die Verkaufszahlen weisen auf die Musik hin, die von den vielen Konsumenten gehört wurde. Das wiederum ist die Musik, die der Industrie als Vorlage diente, aus der Idee heraus, wie die Nummer 1 klingen zu wollen.«

Anfang der 1990er-Jahre bemerkt Ortner deutliche Pegelsteigerungen − bedingt durch erste digitale Limiter, wie etwa »Sonic Solu – tions« oder die Mastering-Software im TC Electronic M-5000-System. Als Waves das Peak-Limiter Plug-in L-1 und TC mit dem »Finalizer« eine erschwingliche Alternative zum M-5000 herausbringen, steigt »der Pegel« weiter.

»Der Franzose Manuel Deruty, dessen Arbeit ich auch zitiere, hat die Dichte der Samples zwischen 0 und −1 dBFS gemessen. Die Untersuchung habe ich ebenfalls durchgeführt. Mit der Einführung digitaler Brickwall-Limiter geht ein klarer Anstieg einher. Bei Produktionen auf Analogband war der verbliebene Headroom mit dem analogen Metering nicht exakt sichtbar. Beim Blick auf die digitale Wellenform wird verbliebene ›Luft‹ erkennbar, man ist geneigt, den Bereich auszureizen.« In den Jahren 2006 bis 2008 ging der Trend nach einem durchschnittlichen Maximum von knapp −9 LUFS leicht zurück. Das lauteste Album seiner Untersuchung: Death Magnetic von Metallica mit durchschnittlichem Dynamikumfang von 3 dB. »Produktionen werden wieder dynamischer, die Bandbreite an unterschiedlichen Angeboten wieder größer, trotzdem wird für einzelne Medien zugespitzt und optimiert.«

Der »Loudness War« − und sein Ende?

Im Fernsehen − samt durchdringender Fernsehwerbung − ist das »Rennen« beendet, dank des EBU-R-128-Standards der Europäischen Rundfunkunion, der seit einigen Jahren eingesetzt wird: Der Standard misst die wahrgenommene Durchschnittslautstärke − Werbung und Programm werden einander angeglichen. »EBU R-128 ist meines Erachtens die größte Revolution in der Audiogeschichte seit Erfindung der CD. Der Algorithmus führt dazu, dass Werbung nicht mehr bis zur Grenze ausgereizt wird.«

loudness-war4
Bisheriges Ende der »Lautheits-Fahnenstange«: das MetallicaAlbum Death Magnetic von 2008 mit einem durchschnittlichen Dynamikumfang von 3 dB

Im Umkehrschluss ergibt es sogar Sinn, kreativer mit einem Werbespot umzugehen, erzählt Ortner. »Für Fernsehsendungen gilt, dass die von Anfang bis Ende im Schnitt −23 LUFS haben müssen. Das fällt bei einer längeren Show anders ins Gewicht als bei einem 20-Sekunden-Werbespot: Wenn ich hier 19 Sekunden leise bin und anschließend schreit jemand laut, sticht das nachher lauter heraus als alles davor und danach. So kann ich Aufmerksamkeit erzwingen. Bei Werbung mit Musik auf gleichbleibender Lautstärke habe ich weniger Spielraum und werde eher untergehen − das zwingt die Industrie, wieder mit Dynamik zu spielen. Der Standard wurde als freiwillige Verpflichtung der Fernsehstationen flächendeckend eingeführt − mittlerweile machen alle Sender mit.« In den USA gilt ein ähnlicher Standard, ATSC A/85, gesetzlich vorgeschrieben durch den sogenannten »Calm Act«. Beim Radio gebe es ähnliche Bestrebungen, erzählt Ortner, es sei ungleich schwieriger, »weil es wesentlich mehr Radioals Fernsehstationen gibt und damit auch mehr Konkurrenz stattfindet.«

Der EBU-Standard setzt − im Gegensatz zum vorhergehenden RMS-Standard − auf gewichtete Lautheit: »Bei etwa 100 Hz wird ein Hochpassfilter geschaltet. Ein Bassbrummen bei 60 Hz hat − rein physikalisch − weit mehr Energie als ein höheres Signal, ich nehme es aber weniger wahr. Der Tiefbass – bereich wird für die Messung ausgeklammert, weil er nicht relevant ist für das, was Hörer als laut empfinden.« Zur Messung und Anpassung der Lautheit an den EBU-Standard empfiehlt Ortner das Plug-in »LM-Correct« von Nugen Audio.

Die JRiver-Software »Media Center« verwendet den EBU-R-128-Standard, um auf Wunsch die eigene Musikbibliothek anzugleichen. Andere Produkte, beispielsweise Apples »iTunes«, verwenden ähnliche Algorithmen. Das »angeglichene« Anhören der bekannten Musikbibliothek kann eine interessante Übung sein, die qualitative Unterschiede zwischen Produktionen direkter offenbart.

160906_Sound&Recording_1024x768_finales_Template_09

Clipping beim Konvertieren 

Ein anderes Problem im Zuge lauter Produktionen ist die Ausreizung des Vollpegels: »Ich bekomme selten Produktionen, die nicht bis 0 dBFS ausgereizt wurden − selbst wenn sie dynamisch sind. Wenn ich ein Master, bei dem jedes Bit bis zum Anschlag vollgeknallt ist, als MP3 konvertiere, schleichen sich Fehler ein. Das hat folgenden physikalischen Hintergrund: Bei einer Datei mit Intersample-Peaks durch Übersteuerung können eben diese bei einer MP3-Konvertierung zu Clipping führen. EBU R-128 verschiebt den Maßstab, die festgelegte Pegelgrenze ist bei −1 dBFS. Zwar wird dann bis dahin ›angeknallt‹, was aber beim Konvertieren weniger Verzerrungen zur Folge hat. Der ›Mastered For iTunes‹-Standard (MFiT) von Apple er – fordert ebenfalls einen reduzierten Spitzenpegel.«

Schöner Klang? 

Ob MFiT bzw. die Normalisierung durch »iTunes Radio« eine erzieherische Wirkung hat? »Sicher, aber das ist auch formatabhängig. Einer jungen Zielgruppe, die den Sound von OK Go haben will, ist das egal. Ich hatte kürzlich eine Schulklasse zu Besuch, 14- bis 15-Jährige. Für eine kleine Produktion haben wir einen Sound-Teppich gesucht, ich habe ihnen Material aus unserem Fundus vorgespielt. Bei differenzierten Elektro-Produktionen, die sauber produziert waren, kam sofort die Reaktion: ›Das klingt viel zu Luxus!‹ Bei den etwas ›grausiger‹ gemischten Produktionen gingen die Mundwinkel nach oben. Die wollten das so haben.«

Ob es zum Wesen der Rebellion gehört, dass etwas schlecht, provokant und aggressiv klingt? »Kulturell prägt der Sound, mit dem man aufwächst. Interessanterweise kam bei der Produktion mit den Schülern auch ein Reggae-Part vor, damit konnten die was anfangen. ›Das klingt nach Bob Marley!‹ Auf der einen Seite also altes Material, das nichts mit trashiger Produktion zu tun hat. Und andererseits komplett ›kaputte‹ Produktionen − qualitativ hochwertig gemachte High-End-Produktionen wollten sie nicht. Wie etwas produziert ist, hängt davon ab, für wen es produziert ist und worauf derjenige es sich anhört.« Als Künstler könne man über die Produktion eine klare Aussage treffen, wer erreicht werden soll.

Remastering? »Ein Ausdruck aktueller Ästhetik, kleine absolute Klangwahrheiten«

In seiner Untersuchung verwendete Ortner Michael Jacksons »Beat It«, um die Remastering-Unterschiede über die Jahre zu messen. Was ihm neben dem Anstieg der Lautheit auffiel? Der Begriff »Remastered« als absolute Klangwahrheit sei irreführend, meint er. »Das Ergebnis wird ästhetisch immer grob an die aktuellen Charts angepasst. Wenn mehr Bass angesagt ist, werden die Bässe um ein paar dB angehoben. Das Stück ›wächst‹ praktisch jedes Mal mit dem aktuellen technologischen und soundästhetischen Umfeld. Deswegen bin ich auch dagegen, schlicht zu sagen, dass alles schlimm ist und sich unbedingt ändern muss.

Der Spruch, dass die Wahrheit eine Tochter der Zeit ist, gilt hier besonders: Klang ist ein Dialog zwischen Kunst und Technologie − immer das, was gerade passiert. Die frühen Aphex-Twin-Produktionen, die mit digitalen Knacksern und Rauschen gespielt haben, waren damals frisch und neu, heute wirkt das ›nett, aber auch irgendwie vorbei‹. Ich würde auch nicht wollen, dass aktuelle Produktionen wieder so ›lässig‹ klingen wie die Vorbilder der 1970er-Jahre.«

Konkurrenzdruck 

Wird Lautheit als Stilmittel genutzt, weil Plattenfirmen mit Konkurrenzprodukten mithalten wollen oder müssen? »Das hat eher mit Nachahmung zu tun. Die Produktionen, die nur nach links und rechts schauen und keine eigenen Entscheidungen treffen, sind morgen passé.« Wann Lautstärke aus seiner Sicht sinnvoll sei? Da kommt er auf den Kontext zurück: »Wie und wo höre ich? Wenn ich zu Hause ein Album anhöre − sozusagen die ›Ur-Form‹ von gutem Sound, wo ich als Produzent alle Möglichkeiten habe und ebendiese vom Konsumenten gewürdigt werden −, dann setze ich mich hin und höre, wie es für mich ideal ist. Höre ich einen Stream auf Spotify oder YouTube von einem DJ, der eine Playlist mit 40 Favoriten zusammengestellt hat, klingt jedes Stück unterschiedlich. Anders als beim Album-Format.«

Sein Fazit zum Thema Lautheit: »Entscheidend ist die Frage, für welches Medium produziert wird.« Die Abspielmedien sind in höchstem Maße unterschiedlich, sie bestimmen auch die qualitative Form des Contents. »Eine schöne, auflösende Produktion hilft nichts, wenn sie über das Medium, mit dem sie gehört wird, nicht funktioniert. Ich halte es mit dem Kommunikationstheoretiker Marshall McLuhan: ›The medium is the message.‹ «

Kommentare zu diesem Artikel

  1. Sehr gut! Endlich klare und gut analysierende Aussagen zum Thema “Lautheit”. Allerdings wuerde ich mich als Musiker, Produzent oder “Musikindustrie” nicht zum “Skalven” von zahlenden Teenagern machen lassen. Denn genau das zeigt uns die heutige Popmusik: Ein “Brei/Muesli” des “Gefallen-wollens”, der wie ein Snack konsumiert wird und danach nur mehr als Verpackungsmuell auf dem (Daten-) Muellhaufen landet.
    Wenn Musikschaffende oder Musikproduzierende sich diesem Credo unterwerfen, dann nehmen sie ganzen Generationen von Musikern und Hoerenden die Chance, sich musikkulturell zu entwickeln. Denn “Hoeren” und “Musizieren” sind Elemente, die sich – wie das Gehirn eines Menschen – in seiner Entwicklung erst formem und ausbilden. Und wesentlich dabei ist das, was die jungen Menschen tatsaechlich zu hoeren bekommen
    Ich glaube nicht, dass man sich an Verkaufszahlen orientieren soll, um erfolgreich zu Haben die Musiker von Event Woodstock ihre Performance an zu erwartendene Plattenverkaufe angepasst? Sicher nicht!
    Wir muessen wieder Seele und nicht nur die Aufmerksamkeit unserer Hoerer erreichen. Dann entateht Charisma und Faszination. Und gute Verkaufszahlen sind dann nur mehr ein angenehmer Effekt ….
    Artur Stupperger

    Auf diesen Kommentar antworten
  2. Top Artikel und sehr schöne Gedanken für die eigene Mastering-Arbeit.

    Auf diesen Kommentar antworten
  3. Meine Herren,

    beim Lesen des Artikels, musste ich leider die dargebotene Fachkompetenz hinterfragen. Dieser Artikel zeigt auch, dass Hr Ortner und Hr. Ketterer etwas grundlegendes missverstanden haben. Ich finde es schade, dass solche Artikel verbreitet werden und maßgeblich dazu beitragen, dass die generelle Vorstellung über Bedeutung und Funktion des Gesangs als menschliches Kommunikationsmittel verzerrt dargestellt wird.

    “Damals wurde vor allem auf die Stimme Wert gelegt.”

    Wie soll man eine solche Aussage interpretieren? Außer, dass Sie selbst davon ausgehen würden, dass es heutzutage anders wäre. Wird heute nicht mehr Wert auf die Stimme gelegt?

    “Sänger wie Enrico Caruso wurden zu ›Recording Artists‹, weil sie besonders laut ›schreien‹ konnten.« ”

    Sie haben beide leider überhaupt keine Ahnung und kein Verständnis von Kunst und versuchen NUR mit technischem Geplänkel darüber hinweg zu täuschen.

    Weiter schreiben Sie:
    “»Man konnte nur eine Handvoll Kopien von einer Aufnahme machen, danach musste der Sänger jedes Mal neu ›reinschreien‹. Das ist ziemlich anstrengend.« ”

    Hier kann man nur mit dem Kopfschütteln.

    Kurz:

    Der Gesang der DAS Maß der Dinge, wenn es um Audioproduktionen geht. Technisch guter Gesang setzt sich im Mix immer durch. Je natürlicher desto stärker berührt es den Hörer. Egal ob mit oder ohne Mikrofon.

    Ich glaube, Sie haben das große Ganze komplett aus den Augen verloren oder es war nie da.

    Dieser Track, gemischt und gemastert von Herr Ortner, bestätigt meine Vermutung. Da ist nichts, aber auch gar nichts drin, was Sie befugt obige Aussagen bezüglich Gesang zu treffen. Schämen Sie sich, ganz ehrlich

    https://fm4.orf.at/soundpark/f/flugm4/main

    Auf diesen Kommentar antworten
    1. Hallo,
      hier die Stellungnahme des Autoren Nicolay Ketterer, die hoffentlich etwas Licht ins Dunkle bringt:

      Sehr geehrte(r) Tabularasa007,
      vielen Dank für den Kommentar, der mich allerdings sehr verwundert. Gerne möchte ich dazu Stellung nehmen:

      Zur Aussage „Damals wurde vor allem Wert auf die Stimme gelegt“: Herr Ortner bezieht sich auf das akustische Durchsetzungsvermögen der Stimme bei der Aufnahme, da die Wachsrollen-Aufzeichnung dynamisch und klanglich sehr eingeschränkt war. Seinerzeit mussten Ensembles gleichzeitig vor dem „Trichter“ des Geräts einspielen. Um die Stimme gut – und vordergründig – einfangen zu können, war ein Sänger nötig, der ein sehr präsentes Signal in den Hochmitten lieferte. Damit konnte dem niedrigen Rauschabstand und dem eingeschränkten Frequenzbereich Rechnung getragen werden.

      Selbstverständlich wird in heutigen Produktionen ebenfalls die Stimme gerne in den Vordergrund gestellt. Etwas anderes wurde im Artikel nicht behauptet. Der Unterschied: Das kann als Produktionsentscheidung nachträglich vorgenommen werden, ohne dass der Sänger/die Sängerin stimmlich Präsenz und Durchsetzungsvermögen besitzt. Wie beschrieben musste sich der Sänger im „Live-Kontext“ gut durchsetzen. Daher erwies sich Caruso als beliebter Sänger, der gut auf das Medium „Grammofon“ eingehen und sich künstlerisch darin verwirklichen konnte. „Schreien“ hat Herr Ortner bewusst in Anführungszeichen gesetzt, wie ihnen sicher nicht entgangen sein dürfte.

      Von der Aufnahme auf jener Wachsrolle (auch Wachswalze) hin zu den fertigen Schellackplatten waren Zwischenschritte nötig, ähnlich der heutigen Vinyl-Herstellung. Das war beim Höhepunkt und Ende der Schellack-Ära in den 1950er Jahren perfektioniert: Von der Wachsrolle wurde in aufwendigen Verfahren zunächst ein „Vater“, davon wiederum „Mütter“ und „Söhne“ gezogen, um von letzteren die Schellackplatten zu pressen.

      Die ursprüngliche Wachsplatte wurde durch die Abzüge allerdings unbrauchbar. Zu Zeiten des 1921 verstorbenen Caruso, als die Massenproduktion noch in den Kinderschuhen steckte, war pro Aufnahme tatsächlich nur eine begrenzte Zahl an Abzügen möglich. Das steht im Gegensatz zum Vinyl-Folienschnitt, der meist von einer Band-Vorlage geschnitten wurde: Der Schnittvorgang ließ sich durch Bandkopien oft wiederholen. Was auch lange weltweit gemacht wurde; so ließen beispielsweise global agierende Plattenfirmen ihre Folien für den Vinylschnitt parallel in den jeweiligen Ländern von Bandkopien schneiden, um zeitgleich eine Vielzahl an gepressten Exemplaren weltweit verfügbar zu machen.

      Ich hoffe, die Ausführungen helfen ihnen, den Artikel im Kontext zu verstehen und die historischen Zusammenhänge der Aufnahmetechnik einzuschätzen. Bei Interesse an weiteren Artikeln zum Thema Audio-Historie, Vinyl- und Audio-Produktion, die die genannten Punkte bestätigen, kann ich ihnen gerne bei Bedarf entsprechendes nennen.

      Ihre Forderung, dass wir uns „schämen“ sollten, kann ich daher nicht nachvollziehen. Für Rückfragen stehe ich gerne zur Verfügung.

      Mit freundlichen Grüßen
      Nicolay Ketterer

      Auf diesen Kommentar antworten
  4. Ich wurde aufmerksam auf diesen Artikel durch einen Beitrag in einem Fachforum.

    Es ist tatsächlich wie dort beschrieben an einigen Stellen sehr unfachlich bzw einseitig argumentiert.

    Wieso soll zB ein Album die Urform von gutem Sound sein? 😀

    Die Masterarbeit enthält nützliche Messungen und regt an

    Auf diesen Kommentar antworten

Pingbacks

  1. Eine Petition gegen den Loudness War › SOUND & RECORDING

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.