WONK: Musikalität nahtlos verbinden
Die japanische Band WONK hat mit ihrer einzigartigen Kreativität und einem groovigen next-generation Sound, der als “experimenteller Soul” beschrieben wird, Wellen geschlagen, indem sie traditionelle Jazz und R&B Instrumentation mit Hip-Hop-Sampling und moderner elektronischer Musik mischt.
Alle Mitglieder von WONK verwenden Ableton Live als wesentlichen Bestandteil des Produktionsprozesses der Gruppe. Bandleader and Schlagzeuger Hikaru Arata hat sich in seinem Programmierunterricht zum ersten Mal mit der Software befasst und benutzt jetzt ausschließlich Ableton Live und Push, um Beats to produzieren. Dabei holt er das Beste aus der Slice Funktion von Simpler und aus einigen Max For Live-Patches. Keyboarder Ayatake Ezaki wechselte von Logic auf Live und erweiterte so seine Kunst von traditionellen Methoden der Musikkomposition hin zum Schreiben von Akkorden und Melodien mit dem Drum Rack von Live. Zusätzlich dazu verwenden Bassist Kan Inoue und Sänger Kento Nagatsuka Live, um die Musik der Band zu mischen. Für die Band ist Live mehr ein Musikinstrument als eine DAW. Sie benutzt es nicht nur zum Produzieren, Bearbeiten und Mischen ihres Sounds, sondern schöpft alle Möglichkeiten des Programms aus, um Samples und anderes Audiomaterial in ihre Musik mit einzubeziehen.
WONKs vor kurzem veröffentlichtes viertes Album “Eyes” hat ihr Profil weiter geschärft. Sie haben Musik für den bekannten japanischen Popstar Shingo Katori produziert, und mit so unterschiedlichen Künstler:innen wie King Gnu, Yasuyuki Horigome und Iri zusammen gearbeitet. In diesem Interview sprechen die Bandmitglieder über die Beziehung zwischen WONK und Live, einschließlich einiger ihrer Lieblingsfunktionen, und darüber, wie sie die Software für ihre Live-Auftritte sowie ihre Musikproduktionen verwenden. Außerdem können Sie einen Einblick in den Slicing-Prozess von Kan Inoue erhalten, indem Sie sein MADSAMPLE Live Set herunterladen.
Ihr benutzt Live nicht nur zum Produzieren, sondern auch für eure Live-Auftritte, oder? Könnt ihr uns ein bisschen mehr darüber erzählen?
Ayatake Ezaki: Mit Live kann man ganz einfach die Sounds speichern, die man gemacht hat. Wir speichern alle Sounds, die wir aufgenommen haben, in einer Library, und dann laden wir sie in ein Set für unsere Live-Auftritte hoch. Das Interface für Audioeffekte ist wirklich einfach; und wenn man dann während eines Live-Sets den Sound bearbeiten oder anpassen möchte, ist das sofort in Echtzeit möglich, indem man Effekte auf die Spuren zieht und dort ablegt. So gesehen ist es eine tolle DAW, die man auch ausserhalb des Studios nutzen kann.
Kan Inoue: Ich benutze Live noch nicht so lange, aber ich habe gemerkt, dass es einige Gründe gibt, warum man es hervorragend bei Live-Auftritten einsetzen kann. Zum einen ist die Software stabil, d.h. sie stürzt nicht ab, wenn man sie startet. Ein weiterer Vorteil ist, dass man in der Session-Ansicht sehen kann, was während einer Live-Show passiert, auch, wenn die Wellenformen nicht direkt auf dem Bildschirm sind. Es hilft auch wirklich, dass man flexibel von einem Loop-Abschnitt zum nächsten springen kann, indem man zum Beispiel Lokatoren setzt und sich dann zu jedem beliebigen Punkt hinbewegen kann.
Ayatake Ezaki: Ich habe vor kurzem angefangen, Push bei Live-Auftritten zu verwenden, aber ich wollte die Gelegenheit nutzen, das Instrument richtig kennenzulernen und es gut einzurichten, bevor ich es bei einem Live-Set einsetze. Es ging dabei viel darum, die Instrumente und Samples auf die Pads hochzuladen und ihnen unterschiedliche Farben zuzuweisen, um sie leichter erkennen zu können. Nach einer Weile wusste ich dann wirklich zu schätzen, wie gut durchdacht das Equipment ist, und wie gut es sich sowohl im Studio als auch auf der Bühne einsetzen lässt.
Was ist für jeden von euch das Beste an Live?
Kan Inoue: Ich mag am liebsten, dass Live eine DAW ist, mit der man durch Experimentieren und glückliche Zufälle Musik produzieren kann, dadurch bekommt die Software für mich sowas wie eine menschliche Persönlichkeit. Wenn ich zum Beispiel etwas in Logic produziere, muss ich mir erst ganz genau überlegen, wie ich dabei vorgehe, bevor ich damit anfange. Wenn ich mit Live komponiere, kann ich ein Sample schneiden und es passt sich automatisch an, oder ich kann einen Max for Live-Patch verwenden und bekomme ein komplett anderes Ergebnis als das, was ich mir vorgestellt habe, d.h. die Zufälligkeit im Produktionsprozess ist sehr individuell.
Kento Nagatsuka: Ich verwende DAWs nur zum Aufnehmen, deshalb kann ich hier leider nicht so viel mehr dazu sagen. Aber ich mag an Live, dass ich eine Spur stumm schalten kann, in dem ich einfach nur die 0 Taste drücke. Das hilft wirklich sehr.
Es ist definitiv wichtig, dass eine DAW einfach zu benutzen ist, nicht wahr?
Hikaru Arata: Ja, ganz bestimmt. Es ist zum Beispiel auch wirklich praktisch, dass man die Wellenformen mit der Tastenabkürzung Cmd + E teilen kann, diese kleinen Details machen Ableton Live so gut. Ich mag es auch, dass ich meine eigenen Shortcuts ganz einfach zuweisen kann. Ich benutze die R-Taste zum Aufnehmen, und ich habe es auch so eingerichtet, daß ich schnell zum Anfang einer Spur springen kann, indem ich 1 drücke, das macht meinen Arbeitsfluss viel effizienter. Und noch etwas, obwohl das wirklich nur ein kleines Detail ist – ich mag es, dass alle Spuren die gleiche Farbe haben, wenn ich Spuren zusammenfasse und später neue hinzufüge!
Ayatake Ezaki: Stimmt, es ist definitiv super, wenn man Spuren über Farben identifizieren kann. Live weist am Anfang allen Spuren unterschiedliche Farben zu. Wenn man sie dann gruppiert und sie die gleiche Farbe bekommen, kann man sie dadurch viel besser erkennen. Außerdem mag ich wirklich die Sounds der eingebauten Synthesizer, die ich oft für WONK-Tracks verwende. Man kann Patches von anderen Leuten im Ableton Shop herunterladen, und es gibt Patches, die von verschiedenen Nutzern für Wavetable gemacht wurden, was Teil des Live 10-Paketes ist, d.h. ich habe viele davon schon ausprobiert. Das macht Live interessant. Man kann auf dem, was man schon gekauft hat, aufbauen. Gut ist auch, dass man verschiedene Formen, Automatisierungs-Presets, für Änderungen an der Hüllkurve einfügen kann, anstelle sie selber manuell erstellen zu müssen. Ich benutze diese Automatisierungsfunktion oft für Synth-Parts.
Ich habe gehört, dass ihr damit angefangen habt, Live auch für die Steuerung der Bühnenbeleuchtung bei Wonk Shows einzusetzen. Wie und warum habt ihr damit angefangen?
Kan Inoue: Bis vor kurzem gab es eine Menge Tracks, die wir live mit Samplern und anderen Instrumenten gespielt haben. Die unterschiedlichen Teile waren dabei nicht immer ganz in der gleichen Taktung – damit meine ich, dass wir keinen Click-Track verwendet haben. Aber unsere neueren Produktionen sind konzeptioneller geworden, wir verwenden viel mehr Synthesizer und Sound-Effekte. Wir konnten diesen Sound bei Live-Auftritten mit unseren Instrumenten nicht ganz wiedergeben, und auch, wenn wir eine synchronisierte Playback-Spur mit den extra Synthesizer-Parts und allem weiteren hinzugefügt haben, hat immer noch etwas gefehlt – deshalb habe ich entschieden, die Beleuchtung auch selbst zu steuern. Es gibt ein Plug-In eines Drittanbieters für Live [namens DMXIS], mit dem man die Bühnenbeleuchtung steuern kann. Man kann damit sogar die Beleuchtung und den Sound in demselben Live-Set synchronisieren. Und das geht wirklich einfach; man fügt einfach eine MIDI Spur in das Live-Set ein, in dem sich alle Parts für deine synchronisierte Backing-Spur befinden, und sie wird dann im Takt der Musik sein und sogar den Tempowechseln folgen. Außerdem hilft es wirklich, dass man die Click-Tracks auf verschiedenen Computern synchronisieren kann, damit alles perfekt eingetaktet ist.
Könnt ihr uns sagen, welche anderen Features euch an Live gefallen, und wie ihr sie verwendet?
Kan Inoue: Ich würde sagen, die Warping-Funktion. Jede DAW kann das Tempo und die Tonhöhe von Wellenformen ändern, aber ich finde nicht, dass sie mit dem Interface und den Analysefunktionen von Live mithalten können. Außerdem gibt es verschiedene Warp-Modi, wie zum Beispiel Beats, Complex und so weiter. Bei anderen DAWs muss man die Wellenform bearbeiten oder Plug-Ins verwenden, um den Pitch der Samples zu korrigieren. Bei Live befindet sich das Interface schon im Sampler, wenn du die Datei hochlädst, und es ist ganz leicht, die Tonhöhe so einzustellen, dass sie auch bei einem Tempowechsel gleich bleibt, sowohl bei MIDI als auch bei Audiomaterial.
Hikaru Arata: Wenn man den Beat Repeat-Effekt auf ein Sample setzt, kann man den Parametern ganz leicht einen LFO zuweisen. Dadurch ändert sich dann der Sound so, als ob man die Automatisierung anpassen würde, und man bekommt einige unerwartete coole Ergebnisse.
Wofür würdet ihr gerne in Zukunft Live verwenden?
Ayatake Ezaki: Ich würde gerne die Videosynchronisierung in einem Live-Setting ausprobieren. Ich habe gesehen, dass VJs Live verwendet haben, um Footage in Echtzeit zu bearbeiten und mit den Parametern der Synthesizer zu synchronisieren. Sowas würde ich auch gerne mal versuchen. Ich glaube, es wäre cool, wenn wir Live noch mehr dafür verwenden würden, um Video und Beleuchtung mit unserer physikalischen Präsenz und unseren Musikinstrumenten auf der Bühne zu verbinden.
Kan Inoue: Bei WONK Auftritten haben wir Solos und improvisierte Teile, die nicht unbedingt eine festgelegte Länge haben, und ich finde, dass es unsere Show ziemlich roboterhaft und ein wenig langweilig machen würde, wenn wir alle unsere Songs mit synchronisierten Playbacks hinterlegen würden. Deswegen wäre es wirklich großartig, wenn wir Live-Sets kreieren könnten, in denen wir uns nahtlos zwischen den Abschnitten, die mit festgelegten Click-Tracks arbeiten, und solchen, die das nicht tun, hin und her bewegen könnten.
Hikaru Arata: Live hat tolle Möglichkeiten, die Wellenform zu bearbeiten, deshalb würde ich gerne versuchen, neue Klänge zu erschaffen. Ich würde zum Beispiel gerne Ambient-Synth-Pads machen, und dafür Naturklangaufnahmen benutzen. Ich würde Max for Live gerne etwas mehr dafür nutzen, um zu experimentieren und zu schauen, welche Sounds ich bekommen kann.
Erst neulich habt ihr ein Video auf euren YouTube-Kanal geladen, in dem ihr euren Song “HEROISM” in einer Remote“Stay Home”-Session spielt. Welche Rolle hat Live hier gespielt?
Kan Inoue: Als wir das gemacht haben, habe ich Live nur für die Aufnahme verwendet. Ayatake hat Live für die Synth-Parts benutzt und Hikaru das Drum Rack mit Push.
Ayatake Ezaki: Das war ein ähnliches Setup wie bei einer normalen Produktion – alle meine Lead-Synth-Parts in der Session kamen von Live.
Viele haben natürlich damit angefangen, diese Remote-Sessions zu spielen, weil es gerade nicht möglich ist, in Venues live zu spielen, und viele Musiker:innen denken darüber nach, wie sie DAWs einsetzen können, die ihnen dabei helfen. Was denkt ihr darüber?
Kan Inoue: Wir konnten diese Remote-Session spielen, indem wir Live und den Cloud-Service Splice genutzt haben. Dadurch war der Produktionsaspekt völlig stressfrei. Ich finde, die Technologie hat einen weiten Weg zurückgelegt, um die Dinge für uns bequemer zu machen. Es gibt natürlich noch einige latente Probleme, wenn es um Live-Remote-Sessions geht, aber ich finde, es liegt an uns herauszufinden, was wir interessantes tun können, wenn wir Live für diese Art von Auftritte verwenden. Außerdem übernehmen immer mehr DAWs KI-Funktionen. Es wird interessant sein zu sehen, was man in Zukunft mit dieser Technologie alles machen kann.
Folgen Sie WONK auf ihrer Webseite, Twitter und YouTube
Text und Interview: Daisuke Ito