A/V Interchange: Live-Musik mit Visuals
Die digitale Welt ermöglicht es, künstlerische Disziplinen beinahe nahtlos miteinander zu verschmelzen. Insbesondere bei Live-Musik haben Visuals einen hohen Stellenwert. Wir leben in einer Zeit, in der man ohne Weiteres ein Underground-Festival finden kann, das sich ausschließlich A/V-Performances widmet, wie das LEV Festival in Spanien. Diese Doppelkonstellation ist bei großen Musikveranstaltungen schon lange Standard, wie Stadionkonzerte von Kanye West, Taylor Swift, Katy Perry und anderen zeigen. Alle Musiker, die eine bestimmte Publikumszahl ansprechen, stellen sich irgendwann die Frage nach dem A/V-Konzept, unabhängig davon, ob das Visuelle im Zentrum ihrer Arbeit steht oder nicht.
Die wenigsten Musiker sind gleichzeitig bildende Künstler, die für ihre Bildsprache selbst sorgen können, bei der großen Mehrheit der A/V-Performances handelt es sich um Kollaborationen. Obwohl die Arbeit mit Künstlern aus anderen Disziplinen eine Herausforderung sein kann, birgt sie doch das Potenzial, eine Performance auf vielerlei Weise zu steigern und sogar zu transformieren. Bei der Podiumsdiskussion „A/V Interchange“ bei Loop im letzten Jahr, fragten wir drei Künstler, die Visuals für Musik machen, was ihre künstlerischen Ziele bei der Zusammenarbeit sind.
Visuelle Repräsentation von Musik
Musik direkt visuell darzustellen, d.h. Formen und Farben fest mit bestimmten Klangeigenschaften zu verknüpfen, ist ein naheliegender Ansatz für A/V-Arbeiten. Die Crew von Raster-Noton hat diese Methode regelmäßig angewendet. Alle drei Gründer, Carsten Nicolai aka alva noto, Olaf Bender aka Byetone und Frank Bretschneider, machen ihre Visuals selbst und obwohl jeder von ihnen seinen Stil verfolgt, haben sie doch eine ähnliche geometrische Formensprache, die beinahe immer synchron zur Musik ist.
Frank Bretschneider schreibt dazu in einer E-Mail: „Ich habe kein Konzept, aber ich vermeide das allzu Gegenständliche, ich will keine Geschichte erzählen. Deshalb verwende ich mehr oder weniger abstrakte Formen, also einfache Figuren und geometrische Muster, eher animationsartig als cineastisch. So wie die Statuslämpchen auf elektronischen Geräten die Parameter eines Musikstücks darstellen: als blinkende und sich bewegende Balken, Punkte, Linien und Ziffern. Allgemein gesprochen verzahne ich die Visuals am liebsten ganz synchron und eng mit der Musik. Im besten Fall verbildlichen sie den Sound. Für unterschiedliche Projekte wende ich unterschiedliche Methoden an. Für Kippschwingungen verwendete ich den Particle Emitter von Modul8, der bloß auf den Sound reagiert, dabei hat jedes Frequenzband (hi, mid und lo) eine eigene Farbe, nämlich Rot, Grün oder Blau. Das Ganze bewegt sich durchweg zum Puls der Musik, aber ich kann bei den Objekten die Größe, den Ort und die Geschwindigkeit ändern. Für Super.Trigger verwende ich nur MIDI-Daten, die das Sequencer-Modul von meinem Octatrack ausgibt. Die Daten triggern die internen Sounds des Octatrack und außerdem die Grafikebenen in Modul8. Die Ebenen enthalten einfache Formensets in Schwarz-Weiß, wie Kreise, Quadrate und Linien. Sobald ein bestimmter Sound getriggert wird, erscheint das entsprechende Muster. Egal was ich spiele, die Visuals reagieren darauf.“
Ein weiteres Beispiel für Konzeptkunst ist „Uni Acronym“ von Alva Noto. Dort flackern erkennbare Markenlogos und bildhafte Symbole über den Bildschirm, die wieder aufscheinen, sobald die von der Vokalistin Anne-James Chaton bewusst ausdruckslos vorgetragenen Buchstabenfolgen damit übereinstimmen. Das Ergebnis ist ein in sich schlüssiges, eigenständiges Kunstwerk, eingefärbt von ironischen Kommentaren zum Konsumverhalten.
Noch reduzierter und als Titel wörtlich zu verstehen, rückt „Harmonic Series” von Luisa Pereira und Manuela Donoso die harmonischen Muster von Dur-, Moll- und verminderten Akkorden in Form von Lissajous-Figuren in den Vordergrund. Die parabelförmigen Muster veranschaulichen die Künstlerinnen zusätzlich als Skulpturen aus dem 3D-Drucker.
Immersive Installationen
Wenn bei einem Setting Musik zugrunde liegt, werden immersive Installationen häufig entweder als hypnotisierende, visuelle Patterns gestaltet, wie Robert Henkes laserbasierte, synchronisierte Lumière-Performances, oder als thematischer Bezug, wie Akihiko Taniguchis digital umgeformter Schreibtisch für „Chorus“ von Holly Herndon.
Zwar sind Noemi Schipfer und Takami Nakamoto mit ihrem Duo Nanotak nicht die einzigen, die aus nur wenigen Zutaten immersive Umgebungen erschaffen. Aber sie gehen dabei besonders clever vor. Ihre Shows bestehen nur aus weißen LEDs mit Musik und dutzende Einfälle konnten sie ohne viel mehr als das realisieren.
Installationen sind stark ortsabhängig, aber manche Künstler stellen in ihren Werken genau solche Merkmale heraus. Der Künstler Romain Tardy beispielsweise setzte mehrere ortsbezogene Arbeiten mithilfe von Projection Mapping um, unter dem Dach von ANTIVJ, dem selbst ernannten „visual label“, das z.B. in enger Zusammenarbeit mit Murcof immersive Videoinstallationen erstellt. Seine Installation „O (Omicron)“ mit dem Musiker Thomas Vaquié erreicht dies durch die Einbindung der vorhandenen Architektur. Einen ganz ähnlichen Effekt erzielt sein Stück „The Ark“ in Zusammenarbeit mit Squeaky Lobster, das in einem Außengelände stattfindet. Er erklärt: „Mich interessiert eher der spezifische Kontext als ein vorhandener Ort oder ein Gebäude. Mit Kontext meine ich alles, was an einem bestimmten Ort und zu einer bestimmten Zeit ein Teil der Erfahrung ist, das beginnt bei der Außentemperatur, der Sprache, die um dich herum gesprochen wird und auch beim sozialen Kontext. Es reicht bis hin zum Gebäude selbst, einerseits als Bau und andererseits als Teil der Geschichte. Ich umgebe mich gern mit Dingen, die ich nicht kenne oder nicht verstehe. Das kann einen manchmal erdrücken, aber ich finde vielmehr, dass Gewohnheit und Komfort nicht die besten Verbündeten sind, wenn man etwas Interessantes erschaffen will.
Wenn ich von Projection Mapping als Praxis mal einen Schritt zurückgehe, würde ich sagen, die Technologie hat sie einerseits ermöglicht, schränkt sie andererseits aber ein. Einerseits hat die Tatsache, dass innerhalb der letzten 20 Jahre die Beamer viel breiter verfügbar wurden, bildenden Künstlern zahlreiche Möglichkeiten für groß angelegte Projektionen eröffnet. Andererseits würde ich das auch von einer anderen Warte aus betrachten, weil das Aufkommen von Projection Mapping nicht nur auf den technischem Fortschritt zurückgeht, sondern auch – und ich würde sogar sagen, zu einem erheblichen Teil – auf konzeptuelle Neuerungen. Projection Mapping bedeutet nichts anderes als den Beamer aus dem Vorführraum zu holen und statt einer Leinwand dreidimensionale Objekte als Projektionsfläche zu benutzen, technisch betrachtet ist das nichts Außergewöhnliches. Es ist erstaunlich, wenn man sich klarmacht, dass diese Handlung, den Beamer raus zu stellen und das Bild über den flachen Bildschirm hinaus zu erweitern, wieder einen kunstgeschichtlichen Rückbezug darstellt, nämlich auf die ersten immersiven Bildwelten wie in der Sixtinischen Kapelle (oder wenn wir gaaanz weit zurückgehen wollen: auf die Höhle von Lascaux!) hin zu zeitgenössischen Malern wie Ellsworth Kelly mit seinen gebogenen Leinwänden. Seit es Kunst gibt, ist es scheinbar ein wiederkehrender Untersuchungsgegenstand, wie man ein flaches Bild mit der dritten Dimension verbindet. Die Idee einer AR [Augmented Reality] ist nicht wirklich neu, wenn man es so betrachtet.
Sich der neuesten technischen Entwicklungen und Tools bewusst zu sein, finde ich toll, weil es einen sehr mit der eigenen Zeit verbindet (und es ist natürlich auch Teil der künstlerischen Verantwortung, zumindest ansatzweise eine Idee zu haben, wie man ein Projekt technisch umsetzt). Aber wenn man darauf zuviel Wert legt, verpasst man wohl zwangsläufig, was wirklich interessant ist, nicht aus technischer, wohl aber aus menschlicher Perspektive. Das darf man auf keinen Fall vergessen, besonders wenn man für ein Stück die meiste Zeit am Computer verbringt. Auch deshalb liebe ich ortsspezifische Projekte, man wird zwar die physikalischen Herausforderungen und Schwierigkeiten nicht los, aber der Welt um uns herum entspringt auch viel Freude und Inspiration.“
So allgegenwärtig digitale Software auch sein mag, A/V lässt sich auch auf die altmodische Art bewerkstelligen, wie Paul Clipson in Live-Konstellationen mit Grouper, Lawrence English und Jefre Cantu-Ledesma beweist. Durch seinen Einsatz von 16mm-Film und Projektoren entstehen bei ihm Bildwelten, die unmittelbar und in ihrer bloßen Umgebung wirksam sind.
Erzählen und Welten erschaffen
Im selben Maß, wie sich bereits das Verhältnis zwischen Elektronischer Musik und Science-Fiction wie eine natürliche Verwandtschaft anfühlt, kann auch die Bildsprache rundum die Musik die Vorstellungskraft beflügeln. Oft beeinflusst ein bestimmter Gegenstand der Musik die Visuals, z.B. bei Drexciya, aber oftmals erschaffen die Visuals auch ihre eigene Geschichte. Mit Sicherheit gilt das für Tarik Barris Projekt „Continuum“ mit Paul Jebanasam.
Nach dem Artwork und den Tracktiteln zu urteilen, war es beim Album Nothing von Kode9 das musikalische Konzept, das für die Show Nøtel A/V mit Lawrence Lek ausschlaggebend war. Ihre Drohne fliegt durch ein verlassenes Luxushotel in der Zukunft, es ist ein musikalischer Sci-Fi-Trip, mit einem ausgefeilten Gegenstand, einem Setting und – wenn Sie die Show kennen – einer Auflösung.
Spektakel
Wenn auch nicht gerade auf die subtile Art, betört ein Spektakel doch effektiv die Sinne des Publikums und macht großen Eindruck. Oftmals ist dafür nicht einmal Video notwendig, weil die Beleuchtung, speziell Strobos, das schon ganz allein schaffen. Und weil sich die Beleuchtungstechnik weiterentwickelt, kann man damit leicht etwas Interessantes realisieren.
MFO ist ein Licht- und Videokünstler, der es mit mehreren angesehenen Musikern zu tun hatte. Mit beiden visuellen Mitteln in seinem Repertoire, zeigte er bei der Tour Aurora von Ben Frost, dass man mit relativ einfachen Ideen bereits eine ziemlich große Wirkung erzielen kann.
Dejha Ti ist eine Installationskünstlerin, deren gemeinsame Arbeit mit dem Multiinstrumentalisten und Elektro-Musiker Rick Feds in Echtzeit funktioniert und so synchronisiert ist, dass es einer visuellen Repräsentation der Musik nahekommt. Aber so wie Ti mit dem Abmessungen des Raumes umgeht – eine wichtige Überlegung bei Installationskunst – und entlang der gesamten Länge sowie auf dem Bildschirm Lichter laufen lässt, kippt das Ganze in ein reaktives Spektakel.
Feds erklärt dazu: „Jedes einzelne Push-Pad schickt ein MIDI-Signal sowohl an Live als auch an Resolume und ist einem bestimmten Bild oder der Beleuchtung zugewiesen. Es gibt da kurze und längere Sounds, dasselbe gilt für die Visuals. Solange ich das Pad gedrückt halte, sind die Visuals bzw. die Beleuchtung an. Wir wollten so nah wie möglich [an eine Eins-zu-Eins-Entsprechung] herankommen. Wir arbeiteten in unterschiedlichen Zeitzonen, tauschten Ideen und Aufnahmen aus, waren dann vor der Show eine Woche lang 20 Stunden pro Tag zugange und versuchten, jedes Bild mit den Visuals in Einklang zu bringen. Dejhas Bildsprache für das Projekt bestand vor allem aus Dreiecken, also mussten wir diejenigen auswählen, die zu den Sounds passten. Das war der erste Schritt und der war nicht gerade einfach, aber das ist nur die Spitze unseres Eisbergs.
Das Schwerste an der Arbeit mit Videokünstlern ist die eigentliche Performance. Ich spiele weder Loops noch lange Samples ab, nichts dergleichen. Das Einzige womit ich spiele, sind meine Finger, da muss ich mir alles merken – aber es muss auch visuell Sinn haben und ich muss mir alle Bilder merken! Ganz zu schweigen davon, dass wir mit 7:1 Surround-Sound arbeiteten und ich manche Pads händisch gepannt habe. Meine Sounds sind ziemlich perkussiv und da ich vom Jazz komme, improvisiere ich gern ein bisschen, das gibt der Performance einen neuen Vibe und neue Energie. Aber als ich das tat, wurden die Visuals chaotisch, also musste ich die große Hürde überwinden, weniger zu spielen. Das war für mich auf jeden Fall eine Herausforderung.“
Experimentierfreude
Wie Sougwen Chen während der Loop-Diskussion erklärt, wollen Künstler manchmal einfach etwas Neues ausprobieren. Besonders was signalverarbeitende Kunst angeht, kann das Experimentieren einer Performance interessante Facetten verleihen. Die von Videokünstler Harm van den Dorpel algorithmisch erzeugten Visuals für „Lexachast“ (Musik von Bill Kouligas und Amnesia Scanner), ändern sich mit jedem Neuladen der Seite. Diese Kooperation unter der Regie van den Dorpels war auf mehreren Festivals gefragt. „Meine Algorithmen filtern Zufallsbilder mit NSFW [als unpassend klassifizierte Inhalte] aus dem gesamten Netz. Daraus streame ich live Grafiken, die ineinander übergehen, eine Art Ken-Burns-Effekt auf Stereoiden“, verrät er. „Das Filtern erledigt das Klassifizierungsmodell open_NSFW gemeinsam mit dem Cloud-Analysetool word2vec. Aus diesem Riesenstapel an Bilddaten ,kuratiere' ich live den Output und verbinde ihn per MIDI mit selbstprogrammierter Open GL Software. Das hat einen ziemlich dystopischen Effekt. Wenn man zum Beispiel alle Farben miteinander zu einer Farbe vermischt, dann entsteht so ein besonderer bräunlich-gräulicher Farbton. Ich radelte ja als Kind jeden Tag an einer Müllkippe vorbei und fand es faszinierend, dass wenn man allen Abfall zusammenwirft, erschaffen die Gerüche in Kombination miteinander so einen ganz speziellen Geruch verursachen. Dasselbe passiert bei „Lexachast“. Wenn ,alle’ Bilder zusammengefügt werden, ergibt sich aus dieser Vielfalt und Zufälligkeit irgendwie ein ,Eins-Sein’, eine Zusammengehörigkeit. So ein bestimmtes Gefühl.“
Auf der Bühne hat Daito Manabe u.a. mit so verschiedenen Künstlern wie Nosaj Thing und Björk gearbeitet und in vielen Fällen Daten in Echtzeit manipuliert. Ebenso geht es bei Weirdcores Arbeiten für Aphex Twin häufig um die Verarbeitung von Live-Bildern, die eine Drohne im Flug über das Publikum aufnimmt.
Lillevan ist ein gefeierter Videokünstler, bekannt für seinen unverwechselbaren Stil und seine Fähigkeit, durch seine Bilder emotionale Tiefe zu erzeugen, so abstrakt sie auch sind. Als jemand, der seit über 20 Jahren auf dem Gebiet arbeitet und live improvisiert, bleibt er stilistisch flexibel, z.B. machte er eine Performance mit Vladislav Delay, die Lillevans Antwort auf Andy Warhols Screen Tests war.
Der Trickzeichner und Videokünstler Rueben Sutherland bildet gemeinsam mit dem Musiker und Produzent Dan Hayhurst ein A/V-Duo, das Digitales und Analoges miteinander verschmilzt. Ihre Arbeit „Sculpture“ begann als Experiment. Nachdem sie etwa ein Jahr lang Nachbarn waren und voneinander die Arbeiten kannten, hatten sie ihre erste gemeinsame Performance weder miteinander geprobt noch wusste der eine, was der andere machen würde. Wie Hayhurst 2014 in einem Interview erklärt, verwendet Sutherland hauptsächlich „eine Tricktechnik mit rotierenden Scheiben, wie das Phenakistoskop und eine Videokamera.“ Er führt weiter aus, dass im Video dennoch ein digitales Element vorhanden ist, genauso wie es bei der Musik ein analoges Element gibt. „Wir können spontan umstellen. In Ruebens Fall existiert eine echte ,Library’ mit hunderten Animationen, gedruckt auf Karten. Sie werden in Photoshop und After Effects generiert und dann auf ein haptisches Trägermedium transferiert. Ich selbst kombiniere analoge Tonbandschnipsel mit Hardware-Instrumenten (Sampler, CDJ-Konsole) und mit digitalen Techniken zum Schneiden und Manipulieren von Samples, wofür ich beinahe ausschließlich Live verwende.“
Unter dem Namen Merkaba Macabre handelt es sich auch Steven McInerney um einen Künstler, der mit dem Medium Film arbeitet. Er setzt seine Bilder einem Prozess aus, den er „Dekomposition“ nennt. Die Bilder triggern seine Instrumente, was der umgekehrte Weg zur Arbeitsweise von Bretschneider und Feds/Ti ist. McInerney verrät per E-Mail: „,Dekomposition’ ist eine sich fortentwickelnde, audiovisuelle Performance ohne Kamera, für einen 16mm-Filmprojektor, mit Lichtton und modularem Live-Soundtrack. Die Farbnegative aus dem Film wurden mehreren physischen und chemischen Dekonstruktionstechniken unterzogen. Die Ergebnisse kopieren wir auf Farbfilm und während der Projektion geht der Klang der zerstörten Filmemulsion als Spannung zum Vorverstärker eines modularen Synthesizers, der die Lichttonspur also letztlich als Kontrollsignal verwendet. Die Umrisse, Formen und Farben des zersetzten Bildträgers werden live in die Klangsynthese übersetzt. Start, Gates und Hüllkurven stammen vom gedruckten Bild und die Parameter des Synthesizers werden live gespielt. Jede Live-Show ist eine recyclete, zersetzte Version ihrer selbst, wobei die Filmkopie und die späteren Inter-Negative denselben Zersetzungsprozess durchlaufen und neu kopiert werden, so dass die Shows niemals gleich sind. Der Kompositionsvorgang umfasste auch, das Farbnegativ in Speisereste zu legen, dadurch bekam es eine zellenförmige Qualität. Das liegt daran, dass sich die Bakterien von der Gelatine an der Bildoberfläche ernähren. Ich koche die Negative auch, das ergibt feine Maserungen, oder friere sie mit anderen chemischen Verbindungen ein. Ich versuche den Film nicht zu berühren, weil ich den natürlichen Prozess nicht unterbrechen will. Ich habe im Lauf der Zeit eine Menge Film verloren, aber es war eine interessante Lernkurve.“
Wie auch Tarik Barri und Jem the Misfit berichten, können Visuals vieles gleichzeitig. Sicherlich kann beispielsweise die Grenze zwischen immersiven Welten und Spektakel fließend verlaufen. Und nichts bringt eine Kunstform so voran wie Experimentierfreude. Gibt es noch andere Möglichkeiten, Visuals und Musik zusammenwirken zu lassen? Wie könnte das Ihren Sound beeinflussen?
Text: Lisa Blanning
Foto oben: Udo Siegfriedt