Monolake: Gute Geister
Robert Henke gewĂ€hrt uns tiefe Einblicke in den Aufnahmeprozess, das Design von Sounds und RĂ€umlichkeit, den Mixdown und die BĂŒhnenumsetzung seines jĂŒngsten Monolake-Albums: Ghosts.
Mit welchem Ansatz hast du bei der Produktion des Albums das Thema KlangqualitÀt behandelt, und welchen Einfluss hatte diese Herangehensweise auf den Kompositionsprozess und das Ergebnis?
Ich finde den Begriff âKlangqualitĂ€tâ etwas problematisch; zumindest sollte man ihn definieren, bevor man dieses Thema erörtert. In der Musik sind die Ergebnisse immer subjektiv, und sehr oft gibt es keine klare Trennlinie zwischen dem âSignalâ und den âVerzerrungenâ und âArtefaktenâ. Ist eine verzerrte Bassline ein technisches Problem oder beabsichtigt? Wenn wir ĂŒber meine Musik sprechen, können wir den Begriff âQualitĂ€tâ beiseite lassen und einfach ĂŒber âKlangâ oder âSoundâ sprechen.
In erster Linie habe ich angefangen, mit höheren Sampling-Raten zu experimentieren, weil ich herausfinden wollte, ob oberhalb von 20 kHz irgend etwas Interessantes geschieht und ob das bei starker AbwĂ€rtstransponierung hörbar wird. Ich habe ein Paar ziemlich gute Mikrofone, die Signalanteile deutlich oberhalb von 20 kHz erfassen können. Damit habe ich â bei einer Sampling-Rate von 96 kHz â alle möglichen KlĂ€nge aufgenommen. Dann habe ich die Ergebnisse in Lives Sampler abgespielt und sie zwei Oktaven abwĂ€rts transponiert. Bei 96 kHz Sampling-Rate sind Signale bis hinauf zu etwa 40 kHz möglich. Transponiert man solche Sounds zwei Oktaven abwĂ€rts, verschiebt sich die Frequenzgrenze auf 10 kHz, so dass die ursprĂŒnglich [fĂŒr das menschliche Gehör] âversteckteâ Oktave im Bereich 20 - 40 kHz auf 5 - 10 kHz verschoben und somit hörbar wird. Transponiert man hingegen ein Signal, das mit  44,1 kHz Sampling-Rate aufgezeichnet wurde, um den gleichen Betrag abwĂ€rts, hat das Ergebnis entweder typische Downsampling-Artefakte (falls die Interpolation in Sampler auf âNormalâ oder âNoâ gestellt wird) oder es klingt matschig (wenn man die Interpolation auf âGoodâ stellt).
Bei 96-kHz-Aufnahmen hat man einfach mehr âspektralen Spielraumâ und mehr âLuftâ. Wenn man dieses Material abwĂ€rts transponiert, klingt das Ergebnis nicht mehr kĂŒnstlich. Allerdings bin ich dabei bisher noch nicht auf wirklich interessante âversteckte Signaleâ gestoĂen. Es ist Ă€hnlich wie der Unterschied zwischen RAW- und JPEG-Fotos. In den meisten Situationen ist es ziemlich egal, aber manchmal â oder fĂŒr manche Arten von Nachbearbeitungen â können die Unterschiede verblĂŒffend sein.
Ich re-sample sehr oft mein eigenes Material, um so komplexere Klangtexturen zu erzeugen. Weil fĂŒr das Re-Sampling die gleichen Regeln wie fĂŒr Originalaufnahmen gelten, habe ich mich dazu entschlossen, das neue Album komplett in 96 kHz zu produzieren. GlĂŒcklicherweise war mein aktueller Computer auch schnell genug, um meine Projekte bei dieser Sampling-Rate bearbeiten zu können.
Wenn man in Live mit variablen Sampling-Raten produzieren will, ist das nicht trivial und erfordert eine gewisse Disziplin. Live spielt Audiofiles beliebiger Original-Sampling-Raten in jeder aktuell gewĂ€hlten Sampling-Rate ab, die durch die Soundkarte unterstĂŒtzt wird. Es kann deshalb schnell passieren, dass man bei einem Projekt in der falschen Sampling-Rate arbeitet, ohne es ĂŒberhaupt zu bemerken. Man sollte es sich deshalb zur Gewohnheit machen, die aktuelle Sampling-Rate der Soundkarte und auch die Sampling-Raten beim Audio-Export genau im Auge zu behalten.
Ich persönlich habe keine Probleme mit Artefakten, die durch Sampling-Raten-Konvertierung entstehen: In 99 % aller FĂ€lle höre ich sie einfach nicht, und mir ist es auch egal, falls sie sich âunter Laborbedingungenâ im Spektrum zeigen. FĂŒr den Klang von Instrumenten und Effekten macht es jedoch einen riesigen Unterschied. Fast all meine Drumsounds entstehen mit Operator, und ein essenzieller Teil meiner Anwendung von FM-Synthese beinhaltet den gezielten Einsatz von Aliasing und Rundungsfehlern. Alle Hi-Hat-Presets, die ich in Operator bei 44,1 kHz gemacht habe, klingen in jeder anderen Sampling-Rate völlig anders. Ich habe es mir deshalb jetzt zur Gewohnheit gemacht, die Sampling-Rate im Preset-Namen zu erfassen:  âMetal_Hihat_03_sr44â, âZoink_sr96ââŠÂ Auch bei allen Bit-Crusher-, Sample-Rate-Reduction- und vielen Verzerrer-Plug-ins sind die Klangdifferenzen bei unterschiedlichen Sampling-Raten nicht zu ĂŒberhören.
In einigen FĂ€llen habe ich einen bestimmten Track einfach bei 44,1 kHz abgespielt, um diesen bestimmten Sound zu bewahren. Danach habe ich den Track mit der Freeze-Funktion âeingefrorenâ und die Sampling-Rate dann wieder auf  96 kHz angehoben. Das zĂ€hlt zu den Dingen, die ich sehr an Live mag: Es hĂ€lt fĂŒr fast jedes Problem eine Lösung bereit, auch wenn diese bisweilen nicht offensichtlich ist.
Du hast mir erzĂ€hlt, dass du das Album ursprĂŒnglich anders mischen und mastern wolltest, deine Meinung dann aber geĂ€ndert hast. Könntest du uns das nĂ€her erlĂ€utern?
Nun, ich arbeite gerne zu Hause. Ich hatte einmal einen semiprofessionellen Studioraum, aber irgendwann wurde das GebĂ€ude verkauft und ich musst dort raus. Seitdem arbeite ich einem kleinen Raum mit guter Akustik, aber das ist nichts, was man als âStudioâ bezeichnen könnte. WĂ€hrend ich an Ghostsarbeitete, hatte ich die Vorstellung, zu Hause nur eine Rohmischung zu machen und dann spĂ€ter fĂŒr den finalen Mixdown in ein ârichtigesâ Studio zu gehen, am liebsten auch mit einem externen Engineer, der ein Paar frischer Ohren mitbringen wĂŒrde. Es ergab sich, dass ich in Basel einen Freund von mir besuchte: Daniel Dettwiler, der dort ein Mastering- und Recording-Studio betreibt. Er hatte diese fantastischen Lautsprecher der kleinen Schweizer Firma Strauss, und die hauten mich wirklich um. Sie hatten dort nicht nur die richtig groĂen Exemplare, die weder in meinen Raum noch in mein Budget gepasst hĂ€tten, sondern auch kleinere Nahfeldmonitore.  SpĂ€ter bekam ich dann einmal die Möglichkeit, diese kleinen Monitore in meinem eigenen Studio auszuprobieren. Nach dieser kleinen Hörprobe musste ich sie einfach auf der Stelle kaufen. Nachdem ich dann einige Wochen lang damit gearbeitet hatte, war ich mir meiner Mischungen so sicher, dass ich den Entschluss fasste, den externen Mixdown zu ĂŒberspringen und mein Homestudio nur fĂŒr das Mastering zu verlassen, das dann gemeinsam mit Daniel in Basel erfolgte. Ich habe die komplette Produktion in Live gemacht, und in Basel spielten wir die Sets aus meinem Laptop ab und ĂŒbertrugen den Stereomix fĂŒrs Mastering in Pro Tools. WĂ€hrend des gesamten Prozesses blieben wir in 96 kHz / 24 bit.
Robert Henkes Homestudio. Monitore: Strauss SE-NF3 und Genelec 8020A.
Du hast das Album auch in einer 24-bit/96-kHz-Version zum Downloadveröffentlicht. Ich kann verstehen, warum es sinnvoll ist, wÀhrend der Produktion in hoher Auflösung zu arbeiten, aber glaubst du, dass diese Version besser klingt als die CD-Version mit 44,1 kHz?
Die Grenze fĂŒr menschliches Hören liegt bei 20 kHz oder sogar deutlich tiefer. Ich bin mir absolut sicher,  das wir nichts oberhalb dieser Grenze hören. Und dennoch: Ich habe gemeinsam mit Daniel ausgiebige Hörtests gemacht, bei denen wir stĂ€ndig zwischen beiden Versionen umgeschaltet haben, und wir waren uns beide sehr sicher, dass wir einen Unterschied hören konnten â besonders was die Wahrnehmung der RĂ€umlichkeit betrifft. Ich habe diesbezĂŒglich eine Theorie, hatte bisher aber noch keine Zeit, sie mit erfahreneren Leuten zu diskutieren: Ich glaube einfach, dass wir Phasendifferenzen in der GröĂenordnung einzelner Samples bei 96 kHz hören können, sobald mehr als ein Lautsprecher im Spiel ist.
Du hast Ghosts komplett in Live gemischt, ohne zusĂ€tzliches Outboard-Equipment. War das in deinem ursprĂŒnglichen Plan, in einem groĂen Studio zu mischen, ebenfalls anders vorgesehen?
Ja, in der Tat. Und es war keine einfache Entscheidung. Egal ob man komplett in Live (oder einer anderen DAW) oder mit einem externen Pult und Outboard-Equipment mischt: FĂŒr beide AnsĂ€tze gibt es jeweils gute Argumente. Ich habe den Eindruck, dass es eine groĂe Unsicherheit bezĂŒglich der Vorteile und Probleme beider Varianten gibt. Als jemand, der im Ableton-Forum viel Zeit damit verbringt, ĂŒber die âKlangqualitĂ€tâ von Live zu debattieren, fĂŒhle ich mich fast schon verpflichtet, etwas zu diesem Thema zu sagen. ZunĂ€chst einmal ist es extrem kostenschonend, eine Produktion direkt in Live und ohne externe Mischung zu realisieren â und das ist ein Ă€uĂerst wichtiger Punkt. Ein guter DA- [Digital-zu-Analog]-Konverter mit 16 oder mehr KanĂ€len, eine gute Analog-Konsole und weiteres Outboard-Equipment: all das ist extrem teuer. Ein Studio mit solch einer Ausstattung zu mieten kostet ebenfalls eine Menge, und vielleicht hat man mehr davon, dieses Geld in etwas wie ein Paar guter Lautsprecher zu stecken, oder in einen schnelleren Computer â oder in Musikunterricht.
Der zweite Aspekt ist Raum- und Arbeitsergonomie. In einem kleinen Schlafzimmerstudio gibt es meist nicht genug Platz fĂŒr ein groĂes Mischpult. Entweder ist der Laptop an der optimalen Hörposition oder der Mixer â aber niemals beide gleichzeitig. Musik zu produzieren oder zu mischen, ohne dabei im âSweet Spotâ zu sitzen, ergibt keinen Sinn. Aber selbst falls man all dies irgendwie in den Griff bekommt, gibt es einen weiteren Aspekt, und der ist fĂŒr mich der wirklich wichtige: Ich will die Möglichkeit haben, das komplette Projekt einschlieĂlich der Mischung einfach zu archivieren, und ich will gleichzeitig an verschiedenen Projekten arbeiten können. Sobald Outboard-Effekte und -Mixer im Spiel sind, ist das so gut wie unmöglich â höchstens vielleicht, wenn man viele Studioassistenten hat, die sich fleiĂig um alles kĂŒmmern, wĂ€hrend man selber eine Kaffeepause macht. WĂ€hrend der Entstehung des Albums Ghosts habe ich oft zwischen den verschiedenen Songs hin und her gewechselt,  und das zĂ€hlt zu den gröĂten Vorteilen, wenn man komplett innerhalb einer Software arbeitet.
Nach diesem Loblied auf das Mischen im Computer will ich aber auch noch eine andere Perspektive erwĂ€hnen: RĂŒckblickend glaube ich, dass es von Vorteil gewesen wĂ€re, das Album mit einem externen Mischpult und einem Mixing Engineer mit frischen Ohren zu mischen. Nicht wegen der AudioqualitĂ€t im technischen Sinne, sondern wegen der damit verbundenen Arbeitsweise: Wenn man innerhalb einer DAW mischt, verliert man leicht den Blick aufs Wesentliche. Wenn man denselben Mix seiner eigenen Musik 5000 Mal gehört hat, fallen einem unter UmstĂ€nden bestimmte Dinge nicht mehr auf, die fĂŒr einen nachtrĂ€glich hinzukommenden Mixing Engineer offensichtlich wĂ€ren.
Hier ein Beispiel: In einem meiner Songs gab es einen MIDI-Kanal, dessen Mixer-Fader auf -40 dB stand. Ich kann nicht mehr nachvollziehen, wie das passiert ist, aber der entscheidende Punkt ist: Beim finalen Mix dieses Tracks ist mir dieses Detail nicht aufgefallen. Erst spĂ€ter, als ich Stems [Submixe] des Materials machte, um die BĂŒhnenumsetzung vorzubereiten, stolperte ich darĂŒber. Diese Spur wĂ€re wirklich eine Bereicherung meiner Drums gewesen, aber so ist sie auf dem Album so gut wie nicht zu hören. HĂ€tte man extern gemischt und dazu das ganze Set auf ein externes Pult geroutet, dort jeden Fader mit einem Namen versehen und sich (neu) orientiert, was in jedem Kanal geschieht, wĂ€re das nie passiert. Zu guter Letzt ist auch der spontane, haptische âZugriffâ auf die EQs eines Pultes immer noch etwas anderes. Zum jetzigen Zeitpunkt wĂŒrde ich es so sagen: Ich wĂŒrde beim nĂ€chsten Mal wieder alles im Rechner machen und so tun, als wĂ€re es das finale Produkt, dann zum Schluss aber trotzdem in ein externes Studio gehen und den Mix dort (neu) machen. Falls das nichts bringt, hat man ja immer noch die komplett in Live gemischte Version. Und falls es im Studio noch besser wird: umso besser.
Eine Sache, die ich allerdings unter keinen UmstĂ€nden selber machen will, ist das Mastering. Ich brauche einfach eine externe, objektive Person, die beurteilt, ob es klanglich ausgewogen ist, und die mir hilft, die richtigen finalen Entscheidungen zu treffen. Ich bin bei Mastering-Sessions immer dabei, und sehr oft gipfelt es in einem Dialog zwischen dem Mastering-Engineer und mir, in dem ich dann am Ende so etwas sage wie: âHey, wir mĂŒssen hier dieses mittige Ding rausnehmenâ. Aber es ist wichtig, dass die externe und erfahrene Person neben mir auch etwas beisteuert, dass sie EinwĂ€nde bringt wie etwa: âNein, diesen Bereich wĂŒrde ich hier nicht weiter anhebenâ â dass sie dazu fĂ€hig ist, meine Vision zu korrigieren, wenn ich Gefahr laufe, mich in die falsche Richtung zu bewegen.
Ghosts hat eine bestechende RĂ€umlichkeit  â die einzelnen Teile scheinen zu atmen, werden an bestimmten Punkten aber auch gezielt sehr dominant. Wie hast du diese Dynamik hinbekommen?
RĂ€umlichkeit ist ein sehr interessantes Thema, besonders in der elektronischen Musik. Wenn ein akustisches Instrument gespielt wird, ist dabei immer auch eine rĂ€umliche Komponente im Spiel: Verschiedene Frequenzen breiten sich unterschiedlich stark in verschiedene Richtungen aus und werden vom Raum reflektiert. Das ist ein komplexer Vorgang. In elektronischer Musik geschieht hingegen nichts von alldem von selber â man muss es konstruieren.
Wir alle sind Raumgestalter, Klangarchitekten unserer eigenen Welten! Ich liebe es, mit Hall und Dynamik herumzuspielen; mir das Ausklingen eines Sounds anzuhören und dabei ein GefĂŒhl fĂŒr die Dinge zu entwickeln, die sich zwischen meinen beiden Lautsprechern entfalten.
Dabei habe ich keine bestimmte Herangehensweise. Ich höre einfach zu und konzentriere meine Wahrnehmung auf diese Aspekte meiner Musik. Deshalb bin ich auch vollkommen zufrieden mit dem Reverb-Effekt von Live: nicht weil er so âgut' oder ârealistisch' klingt, sondern weil ich einfach weiĂ, wie ich damit genau die Klangpalette realisieren kann, die mir vorschwebt. Und wenn mir doch einmal der Sinn nach etwas anderem steht, gibt es genug Alternativen; andere Reverb-Plug-ins, Faltungshall oder sogar die Methode, Signale in die AuĂenwelt zu schicken (in meinem Falle in einen kleinen Analogmixer) und in diverse Hardware-Hallprozessoren. Heutzutage kommt es aber eher selten vor, dass ich meine Hardware anwerfe, es sei denn, ich möchte damit den Raum heizen.
Auf dem Album hört man einiges an beeindruckendem Sound-Design. Mit welchen Ableton-Instrumenten hast du gearbeitet?
Ich beginne bei meinen Tracks oft damit, dass ich Operator in eine Spur einsetze und damit einen Bassdrum- oder Bass-Sound mache, ausgehend von der Voreinstellung. Ich hege eine starke Abneigung gegen Preset-âInhalteâ. Wenn ich einen neuen Synthesizer bekomme, werfe ich dort zunĂ€chst möglichst alle Werkspresets raus. Ich möchte die Möglichkeiten selber erforschen. Irgendwann spĂ€ter gehe ich auch mal die Presets durch, aber eigentlich nur, um sicherzustellen, dass ich nichts Wichtiges ĂŒbersehen habe. Danach kehre ich wieder dazu zurĂŒck, ausschlieĂlich meine eigenen Presets anzuwenden.
Ich kann es mir leisten, so zu arbeiten, weil niemand hinter mir steht, der mir sagt, er wolle diesen hippen Sound jenes KĂŒnstlers X in seinem Werbespot. Selber Sounds zu kreieren macht fĂŒr mich einen groĂen Teil dessen aus, was ich an meiner Arbeit mit Elektronik liebe: die Möglichkeit, mir meine eigenen Klangfarben zu erschaffen.
Operator ist mein Arbeitspferd. Irgendwie ist das ist eine komische Wendung, denn als ich ihn 2004 als Teil von Live 4 entwickelte, sah ich ihn nur als ein nettes âEinsteigerâ-Instrument, das FM-Standard-Sounds auf möglichst effektive Art abdecken sollte. Damals arbeitete ich viel mit den âgroĂenâ Hardware-FM-Synthesizern, die ich in meinem Studio hatte, und ich wollte es Live-Anwendern ermöglichen, FM auf eine einfache Art anzuwenden. Im Laufe der Jahre wuchs Operator dann jedoch immer weiter, und wir bauten viele nette Details ein. Heute, im Jahr 2012, fasse ich meine Hardware-FM-Synths kaum noch an und mache 70 % all meiner Sounds mit Operator: Drums, FlĂ€chen, Basslines uswâŠ
Einige von Henkes Synthesizern: PPG Wave 2.3, NED Synclavier II (links), Sequential Prophet VS, Oberheim Xpander, Yamaha TG-77 und DX27 (rechts).
Andere Instrumente kommen ins Spiel, wenn ich ein âspezielles Extraâ hinzufĂŒgen will. Wenn ich zum Beispiel schon einen schönen Groove habe, fange ich vielleicht an, mein Studio zu erforschen. Dann spiele ich mit einem meiner digitalen 80er-Jahre-Hardware-Monster herum â oder mit einem anderen Software-Instrument. In solchen Phasen der Produktion suche ich meist einen sehr spezifischen Sound, etwas von ikonischer QualitĂ€t. Dieser Klang kann alles mögliche sein: eine Aufnahme, ein Synthesizer-Sound oder ein besonderer Effekt.
Wichtige Rollen auf Ghosts haben Tension und Corpus gespielt, Lives Warp-Funktion, ein Prophet VS Hardware-Synthesizer sowie diverse Aufnahmen von Metallobjekten. Tension ist nicht einfach in den Griff zu bekommen, aber auch ein Instrument mit starker Persönlichkeit. Ich erwarte nicht, dass es klingt wie eine echte gezupfte Gitarre oder eine Geige und kann deshalb auch nicht enttÀuscht werden. Ich sehe es eher als das, was es ist: ein komplexer Algorithmus, der versucht, einige der physikalischen Prozesse zu emulieren, nach denen Saiten-Instrumente funktionieren. Ich verstehe genug davon, um mir ungefÀhr vorstellen zu können, was da geschieht. Der Rest besteht einfach darin, so lange mit den Parametern zu experimentieren, bis ein interessanter Klang entsteht.
Mein Track âPhenomenonâ wird von Sounds getragen, die wie eine Mischung aus gezupften Saiten, aufspringenden BĂ€llen und einem âMiauenâ klingen. Diese KlĂ€nge kommen aus mehreren Instanzen von Tension. ZusĂ€tzlich spielt hier auch der Live-Effekt Multiband Dynamics eine wichtige Rolle, den ich hier einsetze, um alle UnzulĂ€nglichkeiten des Tension-Modells noch stĂ€rker zu betonen. Die âMiauuuâ-Komponente des Sounds entsteht durch die Modulation einiger Parameter mittels eines Max-for-Live-Patches. Der Sound selber ist sehr leise; erst die gewaltige Komprimierung macht ihn zu etwas EigenstĂ€ndigem: Der Fehler wird zum Thema. Modulation oder auch deren gezieltes Auslassen sind ebenfalls ein SchlĂŒssel zu meiner Musik. In meinem Track âDiscontinuityâ ist der wichtigste Sound ein kurzer Impuls, der eine Instanz von Corpus anregt. Hier habe ich den LFO geschaltet, der die Tonhöhe moduliert. Was den Track wirklich ausmacht, ist der durch diese LFO-Schaltung entstehende Kontrast zwischen dem modulierten und dem statischen Sound.
FĂŒr mich ist Live eher ein groĂer modularer Synthesizer als eine klassische DAW. Die Möglichkeiten, Audio intern zu routen, Max zu integrieren, aber auch die Warp-Engine machen wirklich SpaĂ. Diese QualitĂ€t von Live als âInstrumentâ ist genau das, was ich am meisten genieĂe. In diesem Zusammenhang möchte ich das Warping noch einmal besonders hervorheben. Auch diese Technologie bringt nĂ€mlich genau dann die musikalisch interessantesten Ergebnisse hervor, wenn man sie entgegen ihrer ursprĂŒnglichen Bestimmung anwendet â oder wenn man zumindest ihre spezifischen Artefakte zum Teil des Spiels erhebt.
Ich liebe es, strukturierte KlĂ€nge zu resampeln und Pitch-Shifting und Time-Stretching dann als klangliche Transformationen anzuwenden; mit unterschiedlichen Warp-Modi und deren Parametern spielen, die Ergebnisse resampeln, filtern, wieder resampeln, Hall hinzufĂŒgen, zeitlich umkehren, wieder warpen usw. Die Möglichkeiten sind uferlos. Ich nutze Warping nie im ursprĂŒnglichen Sinne, um das Tempo anzupassen. Audio-Files klingen nach jedem Time-Stretching furchtbar. Man kann Zeit einfach nicht dehnen. Egal mit welchem Algorithmus: Ohne Artefakte ist das einfach nicht möglich. Wenn ich meine Sprache per Computer um 20 % langsamer mache, klinge ich wie auf Valium und nicht wie ein konzentriertes menschliches Wesen â so ist das nun mal.
Du hast den Monolake Granulator entworfen, ein herausragendes Max-for-Live-Instrument mit Granularsynthese. Kannst du uns einige Stellen aufGhosts nennen, an denen der Granulator zum Einsatz kommt?
Viele der FlĂ€chensounds sind mit dem Granulator entstanden. Eine Menge davon hört man auf âUnstable Matter'. Die Orgel-Ă€hnlichen Sounds und die Chorstimmen auf âAligning the Daemonâ sind ebenfalls Granular-basiert.
Bei deiner BĂŒhnenperformance arbeitest du mit Surround-Sound. Wie realisierst du das in Live?
FrĂŒher waren meine BĂŒhnen-Sets wie lebendige Organismen, die sich langsam entwickelten und mutierten. Bei jedem Soundcheck und jeder kurzen Pause im Hotelzimmer fĂŒgte ich etwas hinzu oder nahm etwas weg. So wurden die Sets immer ein ziemliches Durcheinander, und nur einige formale BeschrĂ€nkungen â etwa die Anzahl der KanĂ€le â hielten das Chaos noch in Grenzen. FĂŒr die âGhosts in Surroundâ-Tour wollte ich es von Anfang an anders machen. Diese Live-Show sollte eng am Album bleiben und dann einfach performt werden, ohne das Rad jede Nacht wieder neu zu erfinden.
ZunĂ€chst definierte ich die Reihenfolge, in der ich die Tracks bei der Show spielen wollte. So hatte ich sehr frĂŒh eine Vorstellung vom Ablauf, bevor ich mich mit Details befasste. Dann machte ich fĂŒr jeden Album-Track ein Bildschirmfoto des Arrangements. Ich sah mir diese Bilder lange an und stellte mir dabei einige wesentliche Fragen: 1.) Wie sind die Tracks bezĂŒglich deren Instrumentierung organisiert? 2.) Wo gibt es Gemeinsamkeiten und Unterschiede? Wie ist jeder Track strukturiert â wo sind die Breaks, die Loops und die Passagen, die sich langsam entwickeln? 3.) Wie könnte ich diese Tracks in einem Mehrkanal-Surround-Set auffĂŒhren?
Bevor ich mit der konkreten Arbeit in Live anfing, machte ich mir viele Notizen auf Papier. Dann definierte ich einige Eckpfeiler: Wie viele KanÀle wird mein Live-Set haben? (12) Was ist die primÀre Funktion jedes einzelnen Kanals? (Bassdrum, Bassline, Akkorde, Snare 1...) Welche Elemente sollen sich im Surroundfeld umherbewegen und welche sollen statisch oder auf allen KanÀlen vertreten sein? (Die Bassdrum etwa ist statisch und immer auf allen KanÀlen gleichzeitig zu hören.)
Dann öffnete ich in Live wieder jeden einzelnen Song und exportierte Stems. Danach baute ich die Original-Songs mit diesen Stems wieder neu auf, nur zum zu prĂŒfen, ob auf diesem Wege etwas von deren ursprĂŒnglichem Zauber verlorengegangen war. Hier machte ich schon viele Vereinfachungen, um das Material spĂ€ter einfacher performen zu können: Vor dem Export der Stems entfernte ich viele der Effekte. So schuf ich neue FreirĂ€ume, um auf der BĂŒhne spontaner Effekte hinzufĂŒgen zu können. Als das erledigt war, zerschnitt ich die Stems in individuelle Clips, die ich dann in der Session-Ansicht neu arrangierte. Das Ergebnis war ein einziges Set: alle Songs des Albums als eine lange Liste von Clips. Dort kann ich mich von oben nach unten hindurch bewegen, aber auch spontan umherspringen, wenn ich abenteuerlustiger bin. Ich kann Effekte auf Send-Wegen hinzufĂŒgen, den Mix Ă€ndern, Teile ĂŒberspringen oder lĂ€nger spielen. All dies hat mich vier Wochen gekostet â aber das Resultat war die MĂŒhe wert.
Dann ergĂ€nzte ich jeden Track um eine zusĂ€tzliche MIDI-Spur, die â ĂŒber Max for Live und OSC â Cue-Signale an die Video-Rendering-Software schickt. Um Letztere kĂŒmmert sich Tarik Barri: mein visueller Gegenpart bei derGhosts-Tour.
Danach ĂŒberlegte ich mir, mit welchen Hardware-Controllern ich arbeiten wollte. Am Ende wurden es zwei KĂ€stchen mit je 16 MIDI-Fadern [Doepfer Pocket Fader] und ein iPad mit der Lemur App, die mir 30 weitere Fader und viele zusĂ€tzliche Taster auf dem Touchscreen bereitstellt. Ich plane gerade, dieses Set durch ein zweites iPad zu erweitern, um noch mehr Eingriffsmöglichkeiten zu gewinnen.
Weil ich bei der Show so viele Parameter im direkten Zugriff habe, fĂŒgte ich noch einen MIDI-Track hinzu, der einiges Material meiner Stems durch MIDI-(Synth)-Clips ersetzt. So kann ich auf der BĂŒhne in Echtzeit mit den Parametern der Synthesizer spielen. Was die tonalen Linien angeht, spiele ich auf der BĂŒhne hauptsĂ€chlich die Basslines live. Wobble ist jetzt auch möglich. FĂŒr den Fall der FĂ€lle...
Der letzte (und noch nicht komplett abgeschlossene) Teil war und ist die Surround-Kontrolle. Weil die Konzerte an Orten mit verschiedensten Gegebenheiten stattfinden, war eine sehr flexible und stabile Lösung gefragt, die es mir erlaubt, die Anzahl der Lautsprecher zu variieren. Ich wĂŒrde mein Setup als eine â4.2.2â-Konfiguration bezeichnen: vier HauptkanĂ€le (je zwei vorne und hinten) plus zwei weitere KanĂ€le, deren Lautsprecher man so platzieren kann, so wie es gerade passt (zu einem Ring von sechs Lautsprechern oder mit den zusĂ€tzlichen Lautsprechen in BĂŒhnenmitte oder an der Decke hĂ€ngend). Hinzu kommen zwei weitere KanĂ€le als Subs [tiefste Tiefen].
In Live habe ich entsprechende Send-Wege, ĂŒber die ich die einzelnen Surround-KanĂ€le beliefere, sowie ein Max-for-Live-Patch, mit dem ich diese Sends dynamisch kontrollieren kann. Ich habe einige âPanning-Spurenâ definiert und dort jeweils ein Max-for-Live-Patch eingesetzt, das die Sends automatisch steuert. All diese Patches werden durch ein âSurroundMasterâ-Patch im Master-Kanal kontrolliert, das alle möglichen Arten synchronisierter oder frei laufender Bewegungen der Sounds auf den Panning-Spuren erlaubt. Derzeit umfasst das Kreise, Spiralen, SprĂŒnge und statische Routings, aber es ist immer noch viel zu verbessern. Rein technisch gibt es sehr viele Möglichkeiten, die Signale im Raum zu bewegen, aber ich bin immer noch dabei zu erforschen, wie ich all dies im Club- oder Konzert-Kontext musikalisch sinnvoll anwenden kann. Das Instrument ist fertig, nun muss ich nur noch ĂŒben, um es besser spielen zu können: Die rĂ€umlichen Aspekte sollen keine zufĂ€lligen Effekte sein. Ich möchte sie genauso komponieren und spielen wie den Rest meiner Musik â aber an diesem Ziel bin ich noch nicht ganz angekommen.
â
Erfahren Sie mehr ĂŒber Monolake