Tiefenstaffelung I – künstliche Weiten


Durch einen YouTube-Beitrag und einen Thread in einem Recording-Forum bin ich auf ein Thema gestoßen, welches gar nicht so einfach zu behandeln ist: Die Tiefenstaffelung beim Mixdown.

Problemstellung

Beim Mixdown von mehreren Spuren zu einem Stereo-Mix ergeben sich viele Probleme: Frequenzbereiche überlagern sich, Maskierungseffekte treten auf, zu viel tummelt sich in der Mitte und stört den Gesang. Eine erste Maßnahme ist dabei stets das Auseinanderziehen in der horizontalen Ebene, also auf der Stereo-Basis. Das funktioniert schon sehr gut und schafft den Instrumenten und dem Gesang in der Mitte den notwendigen Raum. Doch leider fällt ein solcher Mix durch das monophone Abhören sofort in sich zusammen und die beschriebenen Probleme entstehen erneut. Insbesondere in der heutigen Zeit, in der immer weniger mikrofoniert wird und viele Instrumente trocken und ohne Raumanteil aufgenommen werden, ist diese Problematik aktueller denn je. Für einen guten Mix benötigen wir eine weitere Ebene, den Raum. Es muss durch geeignete Maßnahmen der Eindruck von Tiefe erschaffen werden. Zu Beginn der Geschichte der Aufnahmetechnik war das kein Thema. Das Orchester saß im Konzertsaal vor einem riesigen Trichter (so sahen damalige Mikrofone aus) und alle Musiker haben zusammen das Werk eingespielt. Den den unterschiedlichen Abstand zum Trichter und später zum Mikrofon ergab sich eine natürliche Tiefenstaffelung, denn Direktschall und Raum wurden gemeinsam aufgezeichnet. Instrumente direkt vor dem Trichter besaßen somit nur wenige Rauminformationen und einen hohen Anteil an Direktschall, weiter weg befindliche Instrumente dem entsprechend einen hohen Raumanteil. Auch die ersten Aufnahmen mit Bands, die noch als direkter Mono-, später als Stereo-Mitschnitt erfolgt sind, wurden nach diesem Prinzip gemacht. Vielfach wurde der Raum für diese Aufnahmen optimiert und lange mit der Position der Instrumente in diesem Raum und vor dem Hauptmikrofon experimentiert. Mit der Erfindung der Mehrspur-Aufzeichnung auf Tonband wurde zunehmend in kürzerem Abstand zum Instrument einzeln mikrofoniert. Entscheidungsprozesse wurden somit in den Mixdown verlagert. Hat man zu Beginn weiterhin in guten Räumen aufgenommen und dabei oft auch den Raumanteil gesondert mit aufgezeichnet, ist mit dem Siegeszug der Computer und der virtuellen Instrumente ein Trend zum “trockenen” Signal zu verzeichnen gewesen. Jeder Musiker verfügt heute über die “Produktionsmittel” und kann selbst in seinem Homestudio, welches oft das Wohnzimmer oder Schlafzimmer ist, aufnehmen. Durch das Fehlen von gut klingenden Räumen wird dabei in der Regel gar nicht oder sehr nah mikrofoniert. Dies hat zur Folge, dass jeder Mix zunächst sehr flach klingt. Es fehlt an Tiefe. Diese Tiefe im Mixdown wieder künstlich zu erzeugen, ist das Ziel dieses Artikels.

Es sei an dieser Stelle darauf hingewiesen, dass die so erzeugten “künstlichen Weiten” einer per Raum-Mikrofonierung erzeugten Tiefenstaffelung nicht das Wasser reichen können. Das liegt zum einen in der Tatsache begründet, dass die sehr nahe Mikrofonierung bestimmte Eigenarten des Instruments stark hervorhebt, z. B. die Griffgeräusche einer Gitarre, das Atmen und Schmatzen des Sängers, die Strömungsgeräusche bei Blasinstrumenten und so weiter. Diese “Artefakte” verraten die tatsächliche Entfernung des Instruments zum Mikrofon. Hier stößt die künstliche Tiefe an ihre Grenzen. Dazu jedoch später mehr in einem weiteren Artikel zum Thema.

Der Raum – unendliche Weiten

In der Regel hören wir Musik (ob live oder von einem Datenträger) in einem geschlossenen Raum. Jeder Raum zeichnet sich durch mehr oder weniger starke Reflexionen des Direktschalls an den die Schallquelle umgebenden Begrenzungsflächen (also Boden, Decke und Wände) aus. Je näher sich der Hörer an der Schallquelle befindet, desto weniger relevant sind die Reflexionen vom Raum, da er den Direktschall nicht nur lauter wahrnimmt, sondern auch eher als die Reflexionen, denn der Schall benötigt einige Zeit, um von der Schallquelle zur Begrenzungsfläche zu wandern und als Rückwurf zurück zum Hörer. Dennoch nimmt auch ein Hörer, der direkt vor der Schallquelle sitzt, einen gewissen Anteil an Reflexionen wahr. Diese Reflexionen sind es, die dem Klang die Natürlichkeit geben. Fehlen sie, wird der Klang als steril und unangenehm direkt empfunden. Jeder, der schon einmal einen “Schalltoten Raum” betreten hat oder sich per Kopfhörer ein direktes und reflexionsarmes Signal angehört hat, kennt das Phänomen.

Ob ein Schallereignis als nah oder fern empfunden wird, hängt u. a. von den folgenden Faktoren ab:

  • der spektralen Zusammensetzung (weit entfernte Signale klingen weniger brillant als nahe Signale, da die hohen Frequenzen schnell über die Entfernung an Energie verlieren, tiefe Frequenzen jedoch Entfernung benötigen, um sich komplett zu entfalten – Stichwort Wellenlänge)
  • dem Anteil an Rauminformationen (weit entfernte Signale haben einen höheren Raumanteil als nahe Signale. Man spricht hier auch von Direktfeld und Diffusfeld. Auf der Grenze zwischen Direktfeld und Diffusfeld sind Direktsignal und Reflexionen gleich laut zu hören)
  • der Lautstärke (die Lautstärke eines Schallereignisses nimmt mit der Entfernung ab, ca. 6dB pro Verdoppelung der Entfernung)
  • Laufzeitunterschiede zwischen zwei Signalen (das zuerst gehörte Signal wird als näher empfunden, gilt nicht für Signale innerhalb des Haas-Bereichs von 10-30 ms)

Mit diesen Faktoren werden wir nun arbeiten, um den Eindruck künstlicher Räumlichkeit und Positionierung zu erreichen.

Das Experiment

Ziel ist es, ohne eine Wissenschaft daraus zu machen, ein Signal von vorne nach hinten zu schieben, so dass eine deutliche Distanz wahrnehmbar ist. Die Anmerkung mit der Wissenschaft sei aus dem Grund erlaubt, da man natürlich auch den Versuch unternehmen könnte, die exakten Parameter innerhalb eines real existierenden Raumes zu errechnen und diese dann auf den künstlichen Raum zu übertragen. Da hier allerdings noch mehr Faktoren eine Rolle spielen als nur der Abstand der Wände zueinander und zur Schallquelle, möchte ich darauf verzichten. Diesen Aufwand wird kein Mix-Engineer betreiben, da der Kunde seinen Mix eher früher als später sehen (hören) will.

Unser Versuchsaufbau besteht aus:

  • Nahaufnahme einer per Strumming gespielten Tayler Akustik-Gitarre
  • einer Referenz-Spur (HiHat Sample), die nachträglich angelegt wurde
  • DAW: Logic 9 Pro
  • kein EQ, kein Kompressor, kein Limiter, kein Panning
  • Chamber-Effekt von Lexicon (“LexChamber”) im Bus 1
  • HiCut

Die Gitarrenaufnahme wurde nicht mit Dynamik-Tools oder EQs bearbeitet. Die Referenz-Spur mit der HiHat auf Vierteln liegt trocken in der Mitte des Stereo-Panoramas, ebenso die Gitarren-Aufnahme. Das ist unsere Ausgangsbasis, mit der wir arbeiten werden. Jedes Hörbeispiel beginnt mit ca. 25 Sekunden unbearbeitetem Signal, dann setzen die beschriebenen Maßnahmen ein, um einen Direktvergleich zu haben. Man hört beim unbearbeiteten Teil deutlich, dass Gitarre und HiHat horizontal und in der Tiefe auf einer Ebene im Raum liegen. Per Pan-Regler könnte man nun die Gitarre auf der horizontalen Ebene verschieben. Dies ist aber nicht unser Ziel, denn wir wollen die Z-Achse nutzen. Im ersten Schritt demonstriere ich alle Parameter für sich allein genommen, im zweiten Schritt ihr Zusammenspiel. Dazu bearbeiten wir zunächst den ersten Parameter, die Lautstärke, und senken diese etwas ab (ab ca. 0:25):

Zwar merkt man, dass die HiHat eine größere Aufmerksamkeit bekommt als die Gitarre, wirklich auf der Z-Achse bewegt hat sie die Gitarre aber nicht. Deshalb wenden wir unseren zweiten Parameter an, der seiner Funktionsweise nach die trockene Gitarrenaufnahme in einen Raum stellen sollte, den Chamber-Effekt. Mal schauen, was passiert: der Effekt wird nach kurzer Zeit per Automation des Send-Regler in Logic stufenlos zugemischt:

Zwar erhält das Signal irgendwie eine gewisse Räumlichkeit, doch hat man eher den Eindruck von Breite als Tiefe. Das liegt daran, dass aus unserem Mono-Signal durch den Chamber-Effekt nun ein Stereo-Signal geworden ist. Das ist nicht schlimm, denn jeder Raum ist ja mehrdimensional und somit ist es schon sinnvoll, mit einem Stereo-Signal zu arbeiten. Doch das Beimischen des Effekts hat noch einen anderen Seiteneffekt: die Gitarre wird auch aufdringlicher, weil durch das Zumischen die Lautheit erhöht wird. Kommen wir zum letzten Parameter, der spektralen Zusammensetzung. Ein weit entferntes Signal besitzt weniger hochfrequente Anteile als ein nahes Signal. Mit einem HiCut werden deshalb die Höhen beschnitten:

Auch hier hört man, dass durch das Beschneiden der Höhen sich die Gitarre zwar von der HiHat deutlicher absetzt, aber nicht nach hinten rückt. Um das zu erreichen, sollen nun die Parameter gemeinsam angewendet werden. Im ersten Schritt das Absenken der Lautstärke zusammen mit dem Chamber-Effekt:

Es hat sich schon einiges getan: Das Signal besitzt nun eine Räumlichkeit und tritt gegenüber der HiHat durch das Absenken der Lautstärke zurück. Es ist aber noch zu präsent und direkt, um tatsächlich hinten zu stehen. Es wirkt nun eher so, als wäre durch den Chamber-Effekt eine weitere Ebene entstanden. Durch den HiCut erzielen wir eine deutliche Verbesserung:

Um die Wirkungsweise noch einmal deutlich zu demonstrieren, hier sämtliche Parameter nach und nach per Automation aufgeschaltet/eingefadet:

Fazit

Ein trockenes Schallsignal kann im dreidimensionalen Raum bewegt werden, indem man einen Eindruck von Tiefe schafft. Neben der Beschaffenheit des Signals (siehe Anmerkung oben zur nahen Mikrofonierung und ihren Auswirkungen!) spielen verschieden Faktoren wie Lautstärke, Frequenzbereich des Signals und der Raumeindruck eine Rolle. Einzeln können diese nichts bewirken, sondern erst in ihrem Zusammenspiel. Doch die künstliche Tiefenstaffelung hat ihre Grenzen, wenn das aufgenommene Signal bereits von sich aus eine Räumlichkeit besitzt oder verräterische Spuren in Bezug auf die Entfernung des Mikrofons zur Schallquelle. Diese können dazu führen, dass sämtliche Maßnahmen im Zuge des Mixdowns fehlschlagen. Eine sorgfältige Planung der Aufnahme und einige Vorüberlegungen über den späteren Klangeindruck, der geschaffen werden soll, können helfen, solche Missgeschicke zu vermeiden. Stattdessen kann durch geschickte Mikrofonierung bereits bei der Aufnahme der spätere Platz im Mixdown festgelegt werden. Dazu jedoch mehr in Teil 2. See you soon!

Kontakt

info@markusgalla.com
02325 / 63 65 11
0151 15593906