James Holden: Menschliches Timing
Elektronische Musik ist im Laufe ihrer Geschichte mehr und mehr zu einer hochpräzisen Angelegenheit geworden. Aber vermissen wir nicht auch etwas in dieser perfekten Welt aus Grids, Clips und Rastern? Hin und wieder meldet es sich – unser Gefühl, dass einem Track dieses gewisse etwas fehlt. Etwas, das sich nur schwer beschreiben lässt. Häufiger als vielleicht gedacht ist es lediglich eine Frage der feinen Grooves und Swings. Kleine Fehler und Inkonsistenzen, die dem Beat letztendlich Leben einhauchen. James Holdens neuester Patch, der Group Humanizer, tut genau das und verleiht Ihren Produktionen die gewünschte menschliche Note.
Auf Grundlage von Harvard-Forschungsergebnissen entwickelte Holden eine 'Max for Live'-Anwendung, die das Timing Ihres Audiomaterials und Ihrer MIDI-Kanäle aufeinander abstimmt und lebendiger macht; organischer Flow, wie man ihn sonst nur bei menschlicher Performance findet.
Ursprünglich war der Patch nur für den Eigenbedarf gedacht, um während seiner Shows mit dem Modular-Synthesizer auf Tempoverschiebungen des Live-Drummers reagieren zu können. Nun aber stellt ihn Holden der Allgemeinheit zur Verfügung, um zu zeigen, wie Ändeungen am Mikrotiming einem statischen Groove Lebendigkeit und Dynamik einhauchen.
Im Group Humanizer steckt enorm viel Konzept- und Entwicklungsarbeit. Bevor Sie sich den Patch herunterladen und selbst ausprobieren, können Sie an dieser Stelle mehr über die Hintergründe von Holden höchstpersönlich erfahren – beginnend mit der theoretischen Ausgangslage bis hin zur praktischen Umsetzung. Dabei geht es nicht zuletzt auch um das komplexe Thema menschlichen Empfindens. Überaus interessant für jeden, der sich mit den Feinheiten von Grooves und Rhythmen beschäftigt.
Über menschliches Timing
"Was Black Sabbath aber wirklich zu Black Sabbath machte, war die Art, wie jeder von ihnen das Spiel der anderen interpretierte. Dieses Reagieren aufeinander erzeugt Reibung. Und das macht den Bandsound aus. Mit dem Einsatz von Technologie kann man alles zurechtrücken. Wenn man aber nur auf die Technologie fokussiert ist, verliert man die menschliche Dramatik. Die meiste Musik besteht heute aus perfekt gespielten Parts, die über 'Kopieren' und 'Einfügen' Stück für Stück zusammen gesetzt werden. Timing und Tuning sind makellos. Aber es ist keine Performance. Mein Ziel war es, Black Sabbath wieder zum Zusammenspiel zu bewegen, einfach drauf los zu jammen. Denn darin sind sie Meister." Rick Rubin
Dieses Zitat hat sich in meinem Kopf festgesetzt; sofort nachdem ich Andrew Romanos Interview mit dem legendären Produzenten und früheren Co-Präsidenten von Columbia Records, Rick Rubin, letztes Jahr im Newsweek las. Kurz nachdem es publiziert wurde, kam es mir so vor, als wenn sich jeder Musiker, den ich kannte, darauf berufen würde. Rubin erklärte, wie man wirklich Platten macht und es schien den Nerv eines jeden einzelnen zu treffen. Für mich persönlich war es, als wenn er auf perfekte Art und Weise die Wahrheit schlechthin verkündet hätte. Schon seit Jahren reifte in mir der Gedanke, dass die untrügerische Magie einer Live-Performance das Wesen der Musik bestimmt. Aber mit dieser Einschätzung waren Rick und ich bei weitem nicht allein: Die Untersuchungen des Harvard-Wissenschaftlers Holger Hennig bestätigen mittlerweile diese These, nachzulesen in den Proceedings of the National Academy of Sciences.
Die Harvard-Wissenschaftler konzentrierten sich auf nur einen Aspekt der musikalischen Performance; auf das Mikrotiming beim Zusammenspiel zweier Musiker im Bereich der Millisekunden. Sie gelangten zu der Erkenntnis, dass das Timing jeder individuellen Note in Abhängigkeit zu jeder einzelnen, bereits gespielten Note beider Musiker steht. Beginnt ein Stück nur mit einem winzig kleinen Versatz, so trägt sich dieser über alle Noten hinweg bis zum Schluss fort. Darüber hinaus beeinflusst jede Note die Spielweise des Partners und umgekehrt – der Austausch einer in zwei Richtungen gelenkten Information.
Dr. Hennigs Aufsatz beruft sich auch auf andere Untersuchungen, die nahe legen, dass dieser wechselseitige Informationsaustausch sogar das tiefste Unterbewusstsein erreicht. In weiterführenden Messungen stellte sich heraus, dass die Muster elektrischer Aktivität bei beiden Duettpartnern während des gemeinsamen Musizierens nahezu identisch sind. Einige Neurowissenschaftler vertreten den Standpunkt, dass Rhythmus – nicht nur im musikalischen Sinne, sondern auch hinsichtlich Sprache und Bewegung – ein Mechanismus ist, auf Beunruhigendes zu reagieren. Selbst in der Tierwelt hilft Rhythmus den Nachkommen dabei, Angehörige der eigenen Spezies auszumachen. Kurz gesagt ist menschliches Timing also eine sehr wichtige Sache.
In den tausenden von Jahren bevor es die Tonaufnahme gab, waren Live-Aufführungen die einzige Möglichkeit für Menschen, Musik zu hören. Auch das Aufnahmenverfahren in den ersten Dekaden nach Erfindung der Tonkonservierung setzte noch auf dieses Prinzip: Eine Gruppe von Musikern befand sich in einem akustisch gut klingenden Raum und spielte solange zusammen, bis der Take richtig saß. Mit dem Aufkommen des Mehrspurverfahrens änderte sich die Arbeitsweise dramatisch. Musiker einer Band konnten nun einzeln aufgenommen und etwaige Fehler per Überspielung korrigiert werden. Nicht nur die Kosten reduzierten sich dadurch enorm, es ging auch ein neuer Anspruch damit einher: die bestmögliche Performance jedes einzelnen Bandmitglieds einzufangen. Später führte digitales Studioequipment diesen Ansatz noch weiter. Ein Bassist braucht heute nicht einmal mehr eine komplette Strophe fehlerfrei durchhalten. Ist ein Durchlauf der Bassline im Kasten, kann der Produzent sie an beliebiger Stelle via Copy & Paste platzieren. Doch seitdem der Computer das Kommando übernommen hat, bewegt sich die meiste moderne Musik in einem konstanten, unflexiblen Raster.
Über die Jahre hinweg hat sich das Aufnehmen von Musik vom simplen Einfangen einer Live-Performance hin zu unserer heutigen, komplett anderen Herangehensweise entwickelt. Spielen Musiker während des Aufnahmeprozesses nicht zur selben Zeit die selben Passagen, so findet kein beidseitig gerichteter Informationsaustausch mehr zwischen ihnen statt. Im günstigsten Fall besteht der einseitige Austausch von Timing-Informationen – ausgehend von den bereits aufgenommenen Parts hin zum Musiker, der eine neue Spur hinzufügt.
Zur Verdeutlichung produzierte das Harvard-Team drei Versionen von ‘Billie Jean’. In allen drei Beispielen blieb die Anzahl der zufälligen Fehler gleich (etwa der durchschnittliche Millisekundenversatz bei den einzelnen Schlägen). Die Wissenschaftler variierten lediglich den Anteil der Korrelation zwischen den individuellen Fehlern.
Das erste Beispiel weist durchgehend zufällige Timing-Fehler auf; mit keinerlei Verbindung zwischen einem vorherigen und einem aktuellen Fehler sowie keinerlei Verbindung zwischen den Fehlern in den unterschiedlichen Parts. Das Ergebnis klingt erkennbar unmusikalisch und seelenlos.
Das zweite Beispiel mimt eine Aufnahme, bei der jeder Musiker seinen Part in einem separaten Take zum Click-Track spielte. In jedem Part ist jeder Fehler mit den vorherigen verknüpft, nicht jedoch mit den Fehlern über die individuellen Parts hinweg. Diese Version klingt wie von bedingt fähigen Musikern gespielt, daher rumpelig und nicht überzeugend.
Das dritte Beispiel verwendet das im Konzeptpapier entwickelte Modell (stochastisch-fraktale Verbindung), um aufzuzeigen, wie real Musiker tatsächlich zusammenspielen. Und obwohl die Fehlergröße im selben Bereich liegt, wie bei den anderen Aufnahmen, klingt diese dritte spürbar weniger holprig. Es ist nahezu unmöglich festzustellen, welche Noten nicht richtig sitzen, da sich die individuellen Parts gemeinsam und ganz natürlich umeinander bewegen.
Der springende Punkt ist folgender: Werden alle Audioinformationen zusammen aufgenommen, stellen die verschiedentlichen Timingschwankungen keinerlei Problem dar. Sie klingen nicht wie Fehler. Vielmehr sorgen sie für eine natürliche musikalische Bewegung. Sind die Instrumente aber einzeln aufgenommen oder werden Sequenzen mit eingespielten Parts gemischt, machen sich die Timingfehler unangenehm bemerkbar. Es klingt falsch, weil es nicht organisch ist. Unsere Fähigkeit, Ungereimtheiten auszumachen, entlarvt solche Sachen.
Ein ungewollter Nebeneffekt der heutigen hochentwickelten Studiotechnik ist, dass sie Timingfehler immer weniger toleriert. Wenn Sachen nicht wirklich auf den Punkt gespielt oder zurechtgeschnitten sind, fallen sie auf wie ein bunter Hund. Bei dieser auf Präzision getrimmten Technologie bleibt natürlich verborgen, dass dadurch etwas ganz entscheidendes auf der Strecke bleibt. Würde natürlicher klingende Musik besser vom Hörer aufgenommen werden? Oder anders herum, würde ein Stück ohne jeglichen menschlich verursachten Timingfehler noch das repräsentieren, was die Interaktion zwischen Musikern ausmacht?
Solche Interaktionen sind es übrigens, weshalb ich mir eine Live-Show ansehe. Dingen beiwohnen zu können, die genau in dem Augenblick passieren. Ich werde bestimmt nicht der einzige sein, der von einer bestimmten Band live vollkommen angetan war und mit Erschrecken feststellen musste, dass das, was die Band ausmacht, auf ihrem Album überhaupt nicht zu finden ist. Wenn Elektronikmusiker ihre Live-Shows inzwischen so weit reduzieren, dass sie nur noch ein vorbereitetes Wav-File und ein paar zusätzliche Verzierungen durch die Boxen jagen, dann tritt Leblosigkeit schmerzhaft in Erscheinung. Und wer bemerkt beim Durchstöbern seiner Plattensammlung nicht den deprimierenden Unterschied zwischen dem lässig hingejammten Debut eines Acts und der sündhaft teuren finalen Reißbrett-Produktion.
Obwohl ich musikalisch gesehen einen rechnerbasierten Background habe, verbrachte ich Jahre des Experimentierens, um meine Musik so echt wie möglich klingen zu lassen. Alles was ging, spielte ich live. Ich entwickelte chaotische Systeme (als Software und in meinem Modular-Synthesizer), um expressives Feedback zu simulieren. Aber ein überzeugendes Timing war ohne die Anwesenheit echter Musiker einfach nicht drin.
Basierend auf Holger Hennigs Forschungsergebnissen habe ich eine Software für Live entwickelt, die realistische Simulationen menschlichen Timings erzeugt. Multiple rechnergenerierte Parts klingen nun so, als wenn sie von gemeinsam agierenden Musikern gespielt würden. Sie kann sogar die Eingangssignale von realen Musikern verarbeiten und auf die Timingfehler in natürlicher Art reagieren (so wie es bei dem Jazz-Drummer der Fall ist, der mit mir meine Live-Shows spielt). Es ist das erste Mal, dass solch eine Anwendung für computerbasierte Musik zur Verfügung steht. Aber es gibt ab jetzt auch keine Entschuldigung mehr für zusammengestückelt klingende Tracks! Versteht es als meinen Beitrag zum Widerstand.
Laden Sie James Holdens Group Humanizer herunter.
Bleiben Sie mit James Holden auf Facebook und Soundcloud in Kontakt.