Mit Zufall produzieren: Die Probability-Funktionen in Live 11
Als die Sängerin, Komponistin und Produzentin Mica Levi mit dem Soundtrack für Jonathan Glazers Alien-Femme-Fatale-Film Under the Skin beauftragt wurde, ließ sie sich von John Cage und Karlheinz Stockhausen inspirieren: Wie klingt ein wachsender und fremdartiger Organismus?
„Er sollte unberechenbar, lebendig und unerklärlich klingen – in gewissem Sinne kontrolliert, aber gleichzeitig aleatorisch. Eine Basis festigen und die Dinge dann dem Zufall überlassen, inklusive der Möglichkeit für die Katastrophe und Anarchie – das ist eigentlich ideal. Ich mag das!“
Wenn es darum geht, die Klangwelt eines außerirdischen Wesens zu erschaffen, macht es schon Sinn, den Zufall einzubinden und offen für unkalkulierbare und unregelmäßige Sounds zu sein. Oft werden Zufall und Wahrscheinlichkeit allerdings für irdischere Zwecke genutzt – zum Beispiel für musikalische Glückstreffer, Variationen repetitiver Elemente oder die Struktur eines Musikstücks. Wenn Sie den Zufall ins Spiel bringen wollen, können Sie sich an Komponist:innen und Produzent:innen orientieren, die das schon vor Ihnen gemacht haben – und die Kontrolle dann mithilfe der neuen Probability-Funktionen von Live 11 abgeben.
Komposition dem Zufall überlassen
In der klassischen Musik werden zufallsbasierte Elemente als „aleatorisch“ bezeichnet – darin steckt das lateinische Wort „alea“ = Würfel. In den Salons des späten 18. Jahrhunderts waren musikalische Würfelspiele sehr beliebt: Die Pianist:innen brachten Notenblätter mit und ließen die Reihenfolge der gespielten Abschnitte durch den Würfel bestimmen. Auf diese Weise soll auch ein Menuett von Wolfgang Amadeus Mozart entstanden sein, der als Schöpfer eines der bekanntesten musikalischen Würfelspiele gilt, das allerdings erst nach seinem Tod veröffentlicht wurde.
Mozart hat also bereits mit dem Zufall gespielt, aber der erste westliche Komponist, der den Zufall und die Unbestimmtheit in den Mittelpunkt seines Schaffens stellte, war John Cage. Für Cage war die aleatorische Musik nicht nur ein Gimmick, sondern ein wichtiges Mittel, um das eigene Ego aus dem Weg zu räumen – zugunsten von Ergebnissen, die er selbst beim Komponieren und Aufführen nie angestrebt hätte. Eine seiner wichtigsten Methoden bestand darin, das I Ging zu befragen – ein altes chinesisches Orakel – und die gelieferten Antworten dann in musikalische Vorgaben zu übersetzen: Tempo, gespielte Noten, Notenlänge und Dynamik. Auf diese Weise komponierte Cage unter anderem das Stück Music of Changes (1951).
Seine vielleicht bekannteste Komposition 4’33 ist ein gutes Beispiel für die Rolle des Zufalls im Kontext der Performance: Hier verharren die Musiker:innen 4 Minuten und 33 Sekunden lang in Untätigkeit. Damit liegt der Fokus auf den Umgebungsgeräuschen, was durch die Stille auf der Bühne noch gesteigert wird. Es gibt noch weitere Beispiele dafür, wie Cage die Aufführung oft dem Zufall überließ: Kompositionen mit Radios oder in Form von Partituren, bei denen die Interpret:innen selbst über den Rhythmus und die Lautstärke der gespielten Noten entscheiden können. Oder Stücke mit einer grafischen Notation, die sich auf viele verschiedene Arten interpretieren lässt.
Generative Klänge
Manche Künstler:innen nutzen den Zufall, indem sie ein System für die Klangerzeugung erschaffen – und dann das Lenkrad loslassen. Ein solches System ist Brian Enos Stück „2/1“, das mit nicht-synchronisierten Tonbandschleifen von unterschiedlicher Länge arbeitet. Die Loops treffen sich immer an verschiedenen Punkten und erzeugen damit eine sich endlos weiterentwickelnde Klanglandschaft. Hier ging es Eno darum, dass sich die Musik stetig verändert und sich niemals wiederholen darf – und im Prinzip endlos weiterspielen kann, wenn sie den Geräten überlassen wird. Natürlich wurden der Endlosigkeit durch die Tonträger Grenzen gesetzt: Eno konnte nur Auszüge seiner Soundscapes veröffentlichen, und nicht das generative System selbst.
Der Zufall muss allerdings nicht alle Aspekte eines Musikstücks bestimmen – sein Einfluss kann auch subtiler sein. Herbie Hancocks „Rain Dance“ von seinem 1973 erschienenen Album Sextant ist auf unregelmäßigen Blubbergeräuschen aufgebaut, die von einem Zufallsgenerator des Tontechnikers und Designers Jim Cooper erzeugt werden. Hancock nahm den Zufallsresonator auf Band auf, hörte sich das Ergebnis an und fand einen Abschnitt, bei dem sich tatsächlich musikalische Muster erkennen ließen. Daraus wurde ein minutenlanger Tape-Loop gebastelt, der sich quer durch das Studio schlängelte, mit Aschenbechern und Heftgeräten gespannt wurde und dann wieder in die Bandmaschine lief. Die geloopten synthetischen Tropfen lieferten die überweltliche Stimmung des Tracks, zu der die Band improvisieren und sich dabei in völlig neue Richtungen lenken lassen konnte.
Die argentinische Sängerin, Songwriterin und Loop 2018-Teilnehmerin Juana Molina hat in ihrem Track „El Oso De La Guarda“ von 2013 einen ähnlich zufallsbasierten Sound verwendet – allerdings versehentlich. Daraus ergab sich dann kein Fundament für weitere Ideen, sondern eine Auflösung für Molinas Stück. Am Ende des Songs ist eine Reihe unregelmäßiger Synth-Noten zu hören, begleitet von gespenstischen Knarren. Diesen Sound hatte Molina Jahre zuvor für andere Zwecke erzeugt – eine mit zufälligen Längen und Intervallen wiederholte Note, die sich irgendwie in die neue Aufnahme geschlichten hatte. Molina dachte: Das passt!
Sprachfetzen und Glitches
Digitale Experimente mit zufallsbasierter Musik waren anfangs eine rein akademische Angelegenheit. Zum Beispiel „Idle Chatter“, das erste Stück der zwischen 1985 und 1988 entstandenen Computermusik-Trilogie Chatter des amerikanischen Komponisten Paul Lansky. Es wurde mit einem IBM 3081 Mainframe-Computersystem komponiert, das ein komplettes Zimmer einnahm. Für die drei Stücke wurde eine Aufnahme, in der Hannah McKay ein Gedicht vorliest, in Schnipsel zerlegt und dann willkürlich neu angeordnet, um die Bedeutung zu verschleiern. Das Ergebnis ist ein vielschichtiger Teppich aus Sprache, der die natürlichen Rhythmen des menschlichen Sprechens zeigt, aber an keiner Stelle verständlich ist.
Während Musik wie Lanskys Chatter die Möglichkeiten digitaler Medien erforscht, verwandelt das Glitch-Genre ihre Fehler in Kunst. Glitch feiert klangliche Artefakte und digitale Aussetzer – oft kommen zufallsbasierte Methoden zum Einsatz, um diese glücklichen Zufälle entstehen zu lassen. Für sein 1995 erschienenes Album 94diskont bearbeitete der deutsche Elektronikmusiker Oval verschiedene CDs mit Edding, um den Laser springen zu lassen und das klangliche Resultat zu sampeln. Bei diesem Verfahren war nicht vorauszusehen, welche Teile der CDs springen und welche Rhythmen dabei entstehen würden. Umso schöner ist das musikalische Ergebnis: schwankende Rhythmen und Texturen, die zugleich ozeanisch und technologisch klingen.
Die Zügel abgeben
Die Probability-Funktionen in Live 11 haben zum Ziel, die Musik menschlicher klingen zu lassen und zum Experimentieren einzuladen. Das Schöne bei live gespielten Drums ist ja die subtile Beweglichkeit: unterschiedlich starke Anschläge, leichte Timing-Verschiebungen und vielleicht auch der ein oder andere ausgelassene Drum-Hit. Diese kleinen Veränderungen lassen das Spiel menschlich klingen – während programmierte Beats manchmal steif und roboterhaft wirken. Live 11 bietet viele Möglichkeiten, im Handumdrehen Variationen einzubauen und Ihre Beats durch Zufall zu „humanisieren“.
Zum Beispiel ist es jetzt möglich, die Bandbreite zufälliger Velocity-Änderungen zu bestimmen und die Anschlagdynamik damit kontrolliert dem Zufall zu überlassen – sehr praktisch, wenn es darum geht, repetitiven Elementen wie Hi-Hats mehr Leben einzuhauchen. Ähnlich überraschende Ergebnisse liefert die Note Chance-Funktion: Damit können Sie die Wahrscheinlichkeit von gespielten Noten bestimmen – zum Beispiel 50 %. Wenn Sie beide Probability-Funktionen auf geloopte Abschnitte anwenden, verändern sich diese mit jedem gespielten Beat – und das sorgt für Kurzweiligkeit.
Die Wahrscheinlichkeit für Noten ermöglicht es auch melodische Parts zu erzeugen, die bei jedem Loop-Durchgang anders klingen und dadurch interessant bleiben. Dies passt besonders dann, wenn hohe Melodien mit vielen Noten ausgedünnt werden sollen – zum Beispiel glockenartige Arpeggios oder Cluster aus kurzen synthetischen Klängen.
Mit folgender Methode können Sie Wahrscheinlichkeits-basierte Akkordfolgen erzeugen: Wählen Sie einen Pad- oder Keyboard-Sound aus und legen Sie für einen, mehrere oder alle Akkorde eine Wahrscheinlichkeit fest. Entscheiden Sie dann, für welche Akkorde das Spielen und Weglassen am besten passt, und wie oft das passieren soll. Mit niedrigen Werten für die Wahrscheinlichkeit werden die Akkorde weniger wie eine stetige Folge klingen, weil sie nur gelegentlich gespielt werden. Und bei höheren Werten für einen oder zwei Akkorde wird die feste harmonische Basis Ihres Songs subtil variiert.
Wenn Sie sich von Paul Lansky inspirieren lassen wollen, können Sie die Wahrscheinlichkeit auf Vocal-Samples anwenden. Zerschneiden Sie ein Sample mit Sprache oder Gesang in Simpler, arrangieren Sie die Einzelteile in einem MIDI-Clip und verringern Sie die Wahrscheinlichkeit für die Slices. Oft genügt eine einzelne abgehackte Gesangslinie, um einen House-Track aufzupeppen. Auf diese Weise können Sie auch die Hookline eines Popsongs remixen. Und wenn Sie kakophonische Vocal-Schnipsel im Chatter-Stil erzeugen wollen, bauen Sie Sprachaufnahmen mit Wahrscheinlichkeits-Parametern in Ihren Track ein.
Auch für instrumentelle Samples gibt es eine Simpler-Methode, die glückliche Zufälle provoziert: Spielen Sie mit unterschiedlichen Slice-Längen und zusätzlichen Effekten. Starten Sie die Aufnahme und ändern Sie dann die Parameter. So können Sie digitale Verfremdungen der ursprünglichen Sounds festhalten.
Arrangements auf Zufallsbasis
Es kann schnell passieren, dass wir beim Arrangieren in bestimmte Gewohnheiten verfallen und am Ende viele Spuren mit ähnlichen Strukturen haben. Auch hier ist das Spiel mit dem Zufall ein gutes Gegenmittel und Lieferant für überraschende Ideen. Mozart ließ die Würfel rollen, um auf neue Ideen für die Struktur seiner Kompositionen zu kommen. In diesem Sinne bietet Live 11 Follow-Aktionen für Szenen: Wählen Sie für alle Szenen die Option „Other“ und nehmen Sie das komplett zufallsbasierte Ergebnis in der Arrangement-Ansicht auf. Anschließend können Sie sich dann die besten Übergänge aussuchen und als Ausgangspunkte für die übrigen Teile des Tracks nutzen.
Wenn Sie komplett auf den Zufall und die Wahrscheinlichkeit setzen wollen, nutzen Sie einfach alle verfügbaren Tools gleichzeitig: Lassen Sie Live ans Steuer. Wählen Sie einige Clips aus, die mit der Wahrscheinlichkeit für Noten und Velocity gesteuert werden, und verbinden Sie die Clips und Szenen mit Follow-Aktionen. So erzeugen Sie ein Musikstück, das sich von selbst weiterentwickelt. Wie abwechslungsreich das Ergebnis sein wird, hängt auch von der Zusammenstellung der Clips ab. Nutzen Sie am besten eine Kombination aus Clips, in denen viel passiert, und Clips mit wenigen Noten (oder sogar Stille). Falls die Rhythmen und Melodien mehr oder weniger Noten umfassen sollen, können Sie die Wahrscheinlichkeit für alle Clips individuell anpassen (sehr praktisch beim Performen).
Mit den Follow-Aktionen für Szenen sorgen Sie für Ankerpunkte, an denen die Clips wieder zusammenkommen: perfekt für Beat-basierte Tracks. Für generativen Ambient à la Brian Eno sollten Sie auf diese Ankerpunkte verzichten, damit ein ätherischer Flow entsteht.
Bonustrack
In diesem Video erklärt Iron Curtis, wie er mit Zufall und Wahrscheinlichkeit die Kontrolle über seine Musik abgeben kann.
In diesem Video erforscht ELPHNT die Probability-Funktionen von Live 11.
Text: Lani Bagley