Wer den Podcast noch nicht kennt: HÖRT mal rein. Da gibt es immer wieder interessante Themen und jede Menge Tips & Tricks.
In der aktuellen Folge (Q&A mit Hörerfragen) kann man sogar einen richtig klasse Preis gewinnen ;)
Edit: den Beitrag hier drunter hatte ich schon fertig bevor im Podcast das gleiche Thema behandelt wurde.
Wie kann man dafür sorgen, dass sich der Gesang im Bandgefüge durchsetzt?
Eigentlich scheint es ganz einfach zu sein, in der Realität ist die gute Hörbarkeit (oder gar Verständlichkeit!) des Gesangs häufig problematisch. Ich schreib einfach mal ein paar Tips auf, die man (erstmal grundsätzlich genreunabhängig) benutzen kann, um es zu schaffen, dass die Vocals gut durchkommen. Manche der Lösungen funktionieren mit dem einfachsten Equipment, für manche wird schon etwas mehr benötigt.
Wichtig ist natürlich erstmal: ein vernünftiges Mikro, ein zur Stimme passendes Mikrofon. Auch sollte die Richtcharakteristik des Mikros zur Technik passen. Vielleicht klingt dann das dynamische Mikro mit der breiten Niere unterm Strich doch ausgewogener und schöner als das superenge Kondensator. Und was ganz klar ist: ein wenig Volumen sollte die Stimme schon mitbringen!
Oft klingt der Gesang (und Sprache!) viel zu polternd und basslastig. Das liegt häufig am Nahbesprechungseffekt der meisten Gesangsmikros. Was je nach Vokalist solo und beim Gesang noch angenehm und warm klingt, kann bei anderen Passagen, Plosivlauten und im Bandgefüge massiv stören. Also zuerst mal den Locut an und ihn ruhig auch mal richtig nach oben ziehen, bis man die fehlenden Bässe merkt, und dann wieder zurücknehmen. Vielleicht lohnt es sich, mit dem parametrischen EQ noch zusätzlich genau die Frequenz in den Bässen zu suchen, die stört, und diese relativ schmalbandig abzusenken. Dadurch klingen die Vocals jetzt weniger bollerig, man spart aber jede Menge Headroom und klarer und verständlicher wirds auch. Falls man die Möglichkeit hat, die Subs einzeln (“Aux-Fed” o.ä.) anzusteuern, dann kann man die Vocals da ebenfalls rauslassen.
In den Mitten soll der Gesang natürlich schon nach vorne kommen, hier kann man ruhig auch mal mit Boosts arbeiten. ABER aufpassen, dass es nicht zu “plärrig” wird! Gut darauf achten, ob bei bestimmen Tonlagen oder Techniken die Frequenzen hier zu überbetont klingen. Dann heißt es: Kompromisse eingehen (weniger boosten, evtl sogar cutten) oder einen sidechainfähigen Kompressor einsetzen, und diesen per EQ/Key-Filter “empfindlicher” für diese Nervfrequenzen machen. Funktioniert dafür oft super.
Wie schon in dem Posting weiter unten erwähnt eignet sich Parallelkompression hervorragend dazu, den Gesang auch in leiseren Phrasen “oben” zu halten. Durch die Kompression klingt der Gesang eh schon mal dichter, aber durch die verhältnismäßig geringere Kompression in leiseren Phrasen säuft der Gesang auch dann nicht ab – er wird ja dann praktisch “gedoppelt”. Gerne kann man auch mal probieren den Smash-Channel ein bisschen anders zu eqen (z.B. mehr Höhen).
In den anderen Kanälen sollte man Platz für die Vocals schaffen. Das ist vor allem natürlich in den Mitten so zwischen 1k und 4k (und Höhen?) wichtig. Da gerne schon in den einzelnen Kanal-EQs nicht mit Boosts übertreiben. Wenn man sich während eines Gigs langweilt kann man ja mal probieren mit dem Mitten-Gain-Knopf die den Gesang störendste Frequenz z.B. der Zerrgitarren live in Gesangspassagen runterziehen. Funktioniert klasse, ist aber anstrengend.
Ich schicke normalerweise alle Instrumente über einen Bus, und nehme dort per EQ ein BISSCHEN was von diesen Mitten raus. So 1-3db. Das hilft schon ernorm, um dort für den Gesang zu entrümpeln. Was ich zusätzlich mache: Kompressor in den Instrumentenbus, und diesen vom Gesang fernsteuern lassen. Das ist ja wohl eine uralte Studiotechnik, klappt live aber auch sehr gut. Man sollte nur echt aufpassen dass die GR nicht übertrieben hoch ist (vielleicht auch so 1-3 oder ein paar mehr dB – sonst ist man ganz schnell beim Radio-DJ-Effekt!) und dass vor allem der Release zum Stil und Songtempo passt. Dieses Ducking ist sehr praktisch, aber es lohnt sich doch, den Output des Busses per Hand und musikalisch nachzuregeln. Nicht empfehlen würde ich, das Schlagzeug oder andere perkussive Sachen mit in den zu komprimierenden Instrumentenbus zu packen – dadurch wird das Gesamtbild doch schnell zu unrund und flackerig.
Nach dem Aufbau und vor dem Soundcheck lasse ich sofern es die Zeit zulässt eigentlich immer etwas Musik über die PA laufen. Ich habe mir in den letzten Jahren eine Referenz-CD (oder einen Referenzordner) zusammengestellt: darauf befinden sich einige Songs die nicht unbedingt “perfekte” (Re-)Produktionen von irgendwas sondern einfach Lieder sind, die ich in- und auswendig kenne und schon Hunderte von Malen gehört habe. So merke ich normalerweise sofort wie Raum UND PA auf die für Rockmusik wichtigsten Frequenzbereiche reagieren und führe entsprechende Korrekturen am 31-Band-EQ in der Summe durch. Dabei gehe ich üblicherweise ähnlich vor wie beim Einpfeifen von Monitoren: verdächtige Frequenz identifizieren, Fader/Band boosten — überprüfen und “gespiegelt” unter die Nulllinie ziehen. Das Ganze allerdings eher nach Gefühl als mathematisch. Ich habe von den Songs Ausschnitte vorbereitet, die praktisch nie länger als 1 Minute laufen. So fällt es mir leichter schnell die wichtigen Entscheidungen zu treffen – ohne dass das Gehör ermüdet, man sich an den Sound gewöhnt und man endlos hin- und herschraubt bis man jegliche Perspektive verloren hat.
Ich beginne meist mit der Instrumentalversion von “Nobody Does It Better” (Nate Dogg). Das ist ein schön smoother aber ziemlich “breitbandiger” Track in dem (vom Arrangement) nicht wirklich viel passiert. Meist schau ich zuerst danach wie sich der Bassbereich ab 300hz abwärts verhält, dann vielleicht wie die Snare und die Hihats so wirken, dann was die Pads und der Synthie so in den Höhen so anstellen. Da der Track vom Soundeindruck sehr weich und unaufdringlich ist, fällt es eigentlich sofort auf, wenn Frequenzen durch den Raum oder die PA überbetont werden.
Weiter mache ich dann mit einem Ausschnitt von “Colorblind” (Chroma Key). Hier höre ich besonders auf den Gesang. Dieser ist auf der Aufnahme stark gefiltert. Da achte ich darauf, dass er nicht zuu funkgerätmäßig rüberkommt, oder es gar unangenehme klingelnde Resonanzen etwa im Bereich 400-1600hz gibt. Der ganze Song soll voll und rund wirken.
Weiter gehts dann zu einem Ausschnitt “The Forgotten Part 2” von Joe Satriani (Bridge bis einschließlich erstes Solo). Die Gitarre sollte richtig schön fett, warm und funkelnd klingen (wenns nicht zu synästhetisch-esoterisch wäre hätte ich “golden” gesagt :)). Interessante Frequenzen hier vor allem 1khz-6.4khz. Wenn der Gitarrensound schon stimmt und noch Zeit ist probier ich schnell im Bereich 8k-16k dass die Hihats und Becken nicht zu “dünn” und “spitz” klingen (zu transientenreich). Der Höhenbereich der Snare darf hier ruhig ein bisschen leiden.
Zum Abschluss spiele ich meist den Anfang von “Monkey Business” von Skid Row. Nach dem Intro muss der Songeinstieg einen guten Dynamiksprung machen und der erste Schrei darf nicht unangenehmer klingen als er nunmal ist. Wenn irgendetwas am Gesamtbild über 1khz nicht stimmt wird das in den paar Takten vor der ersten Strophe gnadenlos aufgedeckt. Falls es aber wie ein normal nerviger Hairmetalsong klingt kann das PA-Tuning eigentlich aufhören.
Falls jetzt noch Zeit ist höre ich noch ein paar (wechselnde) andere oder auch aktuellere Songs. Sollte mir hier irgendetwas auffallen so behalte ich das meist, oder bereite mir schon mal 1-3 Frequenzen für den (noch deaktivierten!) parametrischen Equalizer der Summe vor. Mit weiteren Änderungen am Graphic EQ bin ich seehr zurückhaltend.
Im Gegensatz zur „klassischen“ Kompression, die eher dazu gedacht ist, Signalspitzen abzuschwächen oder zu begrenzen, bekommt man mit Parallelkompression wunderbar eine echte „Verdichtung“ des Signals hin – ohne jedoch die Transienten erheblich einzubüßen. Sie eignet sich also hervorragend um Sachen anzudicken.
In der Regel wird diese Art der Kompression wohl in einer Subgruppe (oder einem anderen Bus realisiert). So könnte man beispielsweise einen heftig arbeitenden Kompressor in die Inserts der Subgruppe stöpseln, und dann die Kanäle sowohl zur Subgruppe (1-2) als auch zu den Main Outs (L-R) schicken. Was hier passiert ist natürlich folgendes: die direkten (unkomprimierten) Signale enthalten weiterhin alle Pegelspitzen, alle Transienten, den vollen Attack und die volle Dynamik des Originalsignals. Die komprimierte Subgruppe sorgt dafür, dass das Signal auch in den leiseren Passagen „da“ ist. Gleichzeitig wird natürlich auch der (gefühlte oder echte) Raumanteil des Signals angehoben.
Der Vorteil oder Nachteil der Kompression in der Subgruppe: Subgruppen sind Post-Fader. Je höher die Kanälfader, desto mehr wird der Kompressor angesteuert. Für eine faderunabhängige Parallelkompression würde es sich also anbieten, den Kompressor über Pre-Fader-Auxwege anzusteuern – in der Regel sind diese im Pult aber relativ kostbar, da selten :)
Durch moderne Digitalpulte sind schnell und relativ unkompliziert die selben und durchaus komplexere Routings möglich: oft findet man zum Beispiel in sämtlichen Mixbussen Kompressoren (die vielleicht nicht besonders viel Charakter haben), die dann Pre- oder Postfader arbeiten. Edit: Falls beide Signale aus irgendeinem Grund (Latenz!) nicht gleichzeitig am Ausgang ankommen, dann gibt’s natürlich fiese Nebeneffekte!
Ich habe mein Pult momentan so eingerichtet, dass die ersten 16 Inputs (Layer 1) gleichzeitig auf den Kanälen 17-32 (Layer 2) anliegen (per Soft Patching). Dadurch gewinnt man noch einmal ein Plus an Flexibilität. Beispiel: Kick Mikro 1 (Ch 1) liegt gleichzeitig auf Ch17. Der Kompressor in Kanal 1 ist entweder aus oder arbeitet im „Sicherheitsmodus“: er begrenzt lediglich einige Spitzen, arbeitet aber weitestgehend unhörbar. Der Kompressor in Kanal 17 arbeitet ständig und kräftig (mehrere, vielleicht sogar zweistellige Dezibel Gain Reduction, gerne viel Atem und Pumpen). Jetzt benutzer ich Fader 1 für den “normalen” Kicksound und kann mit dem Fader von Kanal 17 das komprimierte Signal hinzuschieben, bis die Abstimmung passt. Gleichzeitig geht nun die Snare beispielsweise parallel in Kanal 3 und 19. Ich kann diese also unabhängig von der Kick komprimieren (=mit eigenen Einstellungen für Attack, Release, Ratio, Threshold, Kompressortyp..). Ich werde mir außerdem DCAs für (die komplette) Layer 1 und Layer 2 eingerichten. So kann ich je nach Part/Song/Geschmack ständig die passende Balance zwischen ALLEN unkomprimierten und komprimierten Signalen nachregeln. In den einzelnen Kanälen von Layer 2 kann man natürlich je nach Signal auch einen angepassten EQ verwenden. In diesem Setup kann ich allerdings so nicht den Eingang der Kompressoren mit einem Fader steuern, dazu schicke ich dann trotzdem wieder einzelne Signale/Gruppen auf Post-Fader-Mixbusse. Dazu später mehr :)
Ich benutze Parallelkompression live mehr oder weniger auf praktisch ALLEN Quellen. Es macht das Schlagzeug dicker, hilft leisere Klänge (Sidesticks..) nach oben zu holen, es gibt dem Bass mehr Schub, es macht Vocals in leiseren Passagen hörbarer, wirkt wie ein Boost für Single Notes bei E- und A-Gitarren, gibt (Elektro-)Akustikgitarren mehr Substanz, hebt schön die leiseren Parts von akustischen Instrumenten wie Geige oder Cello an… mit Sicherheit eine meiner “Lieblingstechniken” :) Man sollte nur wirklich vermeiden, den extrem komprimierten Sachen auf die (Bühnen-)Monitore zu schicken. Das kann leicht ins Auge Ohr gehen.
Habe mal (ITB) einige Hörbeispiele zusammengeschmissen. Man hört jeweils abwechselnd 1-2 Durchgänge vom Originalsignal und dann das parallelkomprimierte Signal (ohne EQ, Verb o.ä.). Habe versucht den Maximalpegel jeweils gleich zu lassen, so dass man besser hört, was bei der Parallelkompression eigentlich passiert.
Kick
Snare
Full Metal Drumkit Loop v1
Full Metal Drumkit Loop v2
Vocals
Ich hoffe, dass diese Erklärungen einigermaßen klar verständlich sind. Fragen, Kommentare, Verbesserungsvorschläge und das Vorstellen eigener Techniken und Anwendungen sind natürlich gerne erlaubt :)