Raffertie: Vom Konservatorium Zu The Substance

Nach seinem Abschluss am Birmingham Conservatoire in Komposition Klassischer Und Zeitgenössischer Musik etablierte sich der in London lebende Komponist Benjamin Stefanski alias Raffertie zunächst als Produzent und DJ. 2013 veröffentlichte er sein experimentelles, doch subtil strukturiertes elektronisches Debütalbum Sleep of Reason. Wenige Monate nach seiner Unterschrift beim Label Ninja Tune arbeitete Stefanski auch an kommerziellen Medienprojekten, darunter die Snowboard-Videospiehlreihe SSX: Deadly Descents von EA Sports.
Es folgten Arbeiten an Soundtracks, darunter das ITV-Krimidrama Strangers, der Amazon-Thriller Alex Rider und die Filme Zone 414 und Bull aus dem Jahr 2021. Anschließend kehrte er zu Amazon zurück, um dort die Musik für das amerikanische Neo-Noir-Actiondrama The Continental: From the World of John Wick zu komponieren. Inzwischen ist Stefanski in die Liga von Hollywoods ganz Großen aufgestiegen, nachdem Regisseurin Coralie Fargeat befand, dass der Londoner Komponist die perfekte Wahl für den explosiv stilisierten Body-Horror-Hit „The Substance“ aus dem letzten Jahr wäre. Stefanski nutzt Ableton als primäres Produktionstool. Seine elektronische Filmmusik ist genauso dynamisch und überwältigend wie Fargeats unglaubliche Regie und Bildsprache.
Zunächst einmal herzlichen Glückwunsch zu The Substance – toller Film, toller Soundtrack. Gab's ein bestimmtes Musikgenre oder einen bestimmten Musikstil, der dein Interesse am Bereich Soundtracks oder der Musikbranche allgemein geweckt hat?
Das hängt davon ab, wie weit ich ausholen soll? Ich wusste schon während meines Studiums, dass ich in der Musikbranche arbeiten wollte, wusste aber nicht, ob ich gut genug war, um davon zu leben. Meine Lehrerinnen und Lehrer waren da ziemlich pragmatisch. Sie luden viele Leute ein, die ihren Lebensunterhalt beispielsweise mit dem Schreiben von Werbespots verdienten und meinten: „Also schaut, ihr könnt Komponisten werden und damit gerade so über die Runden kommen, indem ihr für euch selbst Musik schreibt. Oder ihr könnt eure Fähigkeiten auf andere Weise, beispielsweise in der Werbung, anwenden und nebenbei das tun, was ihr liebt.“ Als ich in die Musikbranche eingestiegen bin, hatte ich schon die Hoffnung, dass ich als Musiker meinen Lebensunterhalt verdiene, wollte aber dabei auch die Augen nach anderen Möglichkeiten offen halten.
Pre-Soundtrack Raffertie mit dem Track „Build Me Up“ von 2013
Du hast im Grunde als Musikproduzent angefangen?
In den ersten Jahren hatte ich einen Vertrag bei Ninja Tune. Allerdings veröffentlichen die nicht nur Musik und so kam es, dass ich den Großteil meines Einkommens neben meinem Künstlerprojekt durch Werbung verdient habe. Mir hat das sehr geholfen, Jobs in der Werbebranche zu bekommen. Die Leute meinten immer, meine Musik sei ziemlich filmisch, aber ich habe dem nicht viel Beachtung geschenkt, bis ich 2018 die Gelegenheit bekam, die Musik für eine Fernsehserie zu komponieren. Nachdem ich diesen Job gemacht hatte, nahm die Sache ihren Lauf. Ich finde die Kombination aus Musik, Bild und Geschichte inspirierend, denn wenn diese Elemente zusammengefügt werden, kann etwas sehr Bewegendes entstehen. Die Aufträge, an denen ich gearbeitet habe, waren auf unterschiedliche Weise richtig spannend.
Du hast deinen Abschluss im Bereich "Komposition Klassischer Zeitgenössischer Musik" gemacht. Manche Studierende sind enttäuscht, wenn das, was sie lernen, eher theoretisch als praktisch ist. Wie war das bei dir?
Der Theorieaspekt war schon groß. Ich habe viel Zeit damit verbracht, Harmonielehre und Kontrapunkt zu lernen, was zwar vielerlei Hinsicht nützlich ist, aber auch ziemlich pragmatisch. Wir hatten jedes Semester ein paar Mal Konzerte von Komponisten, bei denen wir Arbeiten einreichen konnten. Aber ich war mit der Technik eigentlich schon vertraut und habe meine elektronische Musik Dozenten erst Mitte meines zweiten Jahres gezeigt. Es hat ihnen gefallen und sie meinten, ich solle das weiterverfolgen oder in meine Arbeit am Konservatorium integrieren. Ich hatte ein paar interessante Mentoren, die mich zu neuen Denkweisen inspiriert haben, nicht nur in Bezug aufs Schreiben von Instrumentalen sondern auch auf elektroakustische Kompositionen. Außerdem habe ich mich an ein paar Soundinstallationen versucht, aber auch viele Tracks produziert, die ich in DJ-Sets verwenden konnte. Zu diesem Zeitpunkt ist meine elektronische Seite etwas stärker in den Mittelpunkt gerückt.

Hast du während deiner Studienzeit etwas gelernt, das wirklich bis heute geblieben ist, sei es praktischer, theoretischer oder philosophischer Art?
Auf der Theorie-Ebene lernt man viel über Kontexte und woher bestimmte Ideen in der Musik kommen, aber bei Musik gibt es auch so vieles, das akustisch vermittelt wird. In mir gab's einen Prozess: Früher habe ich immer eher instinktiv auf Dinge reagiert, bevor ich versucht habe, die technische Seite zu erlernen. Wenn man das geschafft hat, schließt sich der Kreis und man muss seine Intuition wiederfinden, weil man nicht unbedingt die ganze Zeit technisch denken will. Ich weiß nicht, ob das Sinn ergibt. Aber ich glaube, am Konservatorium ging es darum, das, was ich zu wissen glaubte, zu reduzieren, um es dann mit einem umfassenderen oder breiteren Wissen über verschiedene Kompositionstechniken wieder aufzubauen. Alles, was ich jetzt mit meiner eigenen Musik mache, dreht sich darum, instinktiv und per Gefühl auf Dinge zu reagieren und sie einzufangen. Ich habe vor Kurzem neue Musik herausgebracht – zwei Titel namens Can't Stop und Atlas – und ein paar Leute meinten, dass darin so ein Chaos herrsche. Ich finde die Idee eines Ideenwirbels an sich interessant – aber innerhalb dieses Wirbels gibt man der Musik etwas mit, das ihr im Idealfall ein Gefühl von Rohheit oder von etwas Transzendentem verleiht.
Du hast an der ComputerspielreiheSSX: Deadly Descents mitgearbeitet – einem Snowboardspiel. Obwohl es dabei nicht um einen Soundtrack ging, vermute ich, dass das ein guter Einstieg in diese Welt war?
Die Musik von Computerspielen ist deshalb interessant, weil sie im Allgemeinen vollständig von Engines gesteuert wird. Man muss sie sich als ein ziemlich modulares Format vorstellen, bei dem acht Takte an andere acht Takte überleiten müssen und bei dem Sounds von Systemen innerhalb des Spiels ausgelöst werden. Meistens muss man mehrere Versionen erstellen, die dazu passen, wie es bei den Spielern läuft und die Musik muss subtil zwischen diesen Zuständen wechseln können. Im Fall von SSX wollte man dem Spiel einen kommerziellen Flair verleihen und dass die Musik sich innerhalb der Spiel-Engines verändern kann. Dadurch wird fühlbar, wie die Spieler in den Levels vorankommen.
An was für Soundtracks hast du gearbeitet, bevor man dich gebeten hat, die Musik für The Substance zu komponieren?
Für die erste komplette Fernsehserie habe ich 2018 die Musik geschrieben. Und ein Job hat zum nächsten geführt. Während der Pandemie habe ich Musik für die Michaela Coel Show gemacht, I May Destroy You. Dann habe ich am John Wick-Prequel The Continental gearbeitet, was eine wirklich interessante Erfahrung war, weil ich mit dem London Contemporary Orchestra zusammenarbeiten durfte. Anschließend sind viele Leute mit Projekten wegen der Kombination aus Elektronik und Orchester zu mir gekommen. Ich war ja noch immer verhältnismäßig neu im Komponier-Game. Und dann kam Anfang letzten Jahres The Substance.
Wie ging diese Kette von Ereignissen los?
Mein Agent hatter mir im Dezember geschrieben, dass möglicherweise etwas auf mich zukommen würde und dass ich mir den Januar freihalten solle. Dann wurde ich gebeten, ein Reel zu schicken, also eine Zusammenstellung meiner Tracks aus früheren Projekten. Der Regisseurin, Coralie Fargeat, haben fünf oder sechs davon sehr gefallen. Nachdem ich sie getroffen hatte, waren wir weg. Das einzige große Problem war, dass die Zeit echt knapp war. Sie wollten den Soundtrack für die Filmfestspiele von Cannes fertig haben. Also musste alles bis Ende April gemischt und abgegeben werden. Wir haben uns sofort an die Arbeit gemacht, aber die Zeit wurde immer knapper. Gegen Ende mussten wir sogar noch Musik fertig schreiben, während wir sie gemischt haben. Es war ein großer Druck, aber es hat mir riesigen Spaß gemacht, die Partitur zu schreiben. Und trotz der geringen Zeit war es großartig, mit Coralie zusammenzuarbeiten.
Der Film ist ziemlich krass. Was war deine erste Reaktion, als du ihn gesehen hast und wie schnell ging es bei dir los damit, Ideen zu entwickeln und auszuformulieren?
Wie bei den meisten Leuten war meine erste Reaktion: „Was habe ich mir da gerade angesehen?“ Ich suche immer nach etwas, das mich irgendwie berührt – und es ist mir egal, wie ich das erreiche. Aber etwas muss eine instinktive Reaktion in mir auslösen, damit ich wirklich Teil von einem Projekt sein möchte. Bei The Substance konnte ich die Wut, die aus der Leinwand strömte, richtig spüren. Besonders im dritten und letzten Akt und durch die Art, wie der Film auf seinen Höhepunkt zusteuert. Ich war richtig fasziniert von dem, was aus dem Bildschirm auf mich einströmte und fand das Storystelling großartig. Auch die ganze Symbolik war klasse und dass es sehr wenig Dialog gab. Trotzdem hat mich die Geschichte gefesselt – wahrscheinlich war sie so eindringlich, gerade weil es so wenig Dialog gab. Was meine Ideen angeht: Der Film war schon klar getemped, als ich ihn zum ersten Mal gesehen habe und er wirkte sehr gut gemacht. Aber Coralie machte recht deutlich, dass der Temp-Track nicht als Soundtrack gedacht war, sondern nur als allgemein Richtung, wie alles sich auf- und abbaut. Sie hat vor allem vorgegeben, wo sie die Musik leiser haben will und wo sie Vollgas geben sollte. Das war wirklich hilfreich, weil manche Leute ein bisschen zu sehr auf die Temp-Version fixiert sind und auf nichts anderes mehr achten. Da es nicht viele Dialoge gab, blieb der Musik eine Menge Raum, entweder direkt mit der Handlung verknüpft zu werden oder den Subtext hervorzuheben. Die Ideen kamen also ziemlich schnell mit den ersten Demos und es gibt wahrscheinlich drei Elemente, die gleich herausstachen und die die gesamte Partitur untermauern.
Suchst du in diesem frühen Stadium schon nach bestimmten Sounds, die als roter Faden für den ganzen Film dienen können?
Es gibt einen, den man am Anfang des Films und auch später hört und ich erinnere mich, dass Coralie meinte, das sei der Sound von The Substance. Er wurde im Grunde zu einer Art Motiv. Und dann gibt es auch noch ein paar Ideen in den Klangwelten der beiden Figuren Elizabeth und Sue. Der Elizabeth-Sound sollte eine organische, natürliche Schönheit haben. Wir haben viel über Hollywood-Nostalgie geredet. Im Film ist sie eine Schauspielerin, die in eine andere Phase ihrer Karriere eingetreten ist. Also haben wir angefangen, Musik aus Filmen wie Vertigo und Citizen Kane zu referenzieren. Dann gibt's da noch die Welt von Sue, in der es um die Bedeutung von Jugendlichkeit geht. Allerdings mit einer Art hyperrealem, synthetisch erzeugtem Element. Daher kam die Idee für die Kick und die wirklich tiefe, subbige Basslinie. Wir haben diese Ideen einfach zusammengefügt, um den „The Substance Sound“ zu kreieren. Ich erinnere mich an eine Szene, in der die Kamera herumschwenkt und man Sue in einem Catsuit sieht, kurz bevor sie auf die Bühne geht. Als wir den Ton auf das Bild setzten, passte der Schlag der Snare perfekt zum Schnitt. Es war einer dieser Momente, wo wir dachten: Da ist sie – das ist die Klangwelt. Außerdem kommt es zu einer Kollision zwischen den Welten der beiden Charaktere. Während das passiert, wird der Film chaotischer, härter und gewalttätiger – und auch damit zu spielen hat Spaß gemacht.
In Horrorfilmen wird Stille bekanntermaßen strategisch eingesetzt, um Angst zu erzeugen. Wie bringst du das mit dem Impuls in Einklang, an bestimmten Stellen Sounds einzusetzen?
Viel davon hängt von der Stärke der Performances ab. Ich finde, dass es in diesem Film einige herausragende davon gibt, sodass man an diesen Stellen keine Musik braucht, die einem zusätzlich sagt, was man fühlen soll. Ein gutes Beispiel ist die Aktivierungs-Szene, in der Elizabeth sich zum ersten Mal eine Spritze gibt und anschließend Sue geboren wird. Als ich den Film zum ersten Mal gesehen habe, gab es vor der Injektion keine Musik. In einer etwas späteren Version wurde jedoch welche hinzugefügt. Ich weiß noch, wie ich mit Coralie gesprochen und gesagt habe: „Ich finde, wir brauchen hier keine Musik, weil die Szene dadurch viel einsamer wirkt und man sich dadurch besser in die Gedankenwelt der Figur hineinversetzen kann.“ Bei manchen Projekten sind die Performances nicht ganz so stark und die Szene braucht vielleicht ein wenig Hilfe. Aber hier ist die Geschichte so gut erzählt, gespielt und umgesetzt, dass man Momente auch ohne Musik für sich stehen lassen kann. Außerdem muss man bedenken, dass man, wenn man groß anfängt, nicht mehr zurück kann. Es geht also wirklich darum, mit den Filmemachern zusammenzuarbeiten und zu wissen, wo man Druck machen und wo man vom Gas gehen muss. So sehr ich auch möchte, dass meine Musik gehört wird, geht es mir auch darum, das Ganze nicht zu übertreiben.

Legst du sofort eine Bibliothek mit passenden Sounds an, sobald du die Temp-Version siehst oder ist das ein sich ständig weiterentwickelnder Prozess?
Sie entwickelt sich immer weiter, aber normalerweise versuche ich, zwei oder drei Teile auszuwählen, mit denen ich loslege. Dafür gibt es auch einen Grund. Ich weiß nicht, ob du schon einmal ein Fairfield Shallow Waters Gitarrenpedal benutzt hast: Es moduliert den Pitch und lässt alles schön wobbeln, was dem Sound so ein wässriges, schleimiges Gefühl verleiht. Das passt perfekt zu den ganzen Körperflüssigkeiten, die im Film vorkommen. Ich habe auf einer recht grundsätzlichen Ebene nach Inspiration gesucht und das war eine, nach der ich sofort gegriffen habe. Ich hatte außerdem die Idee, für Sue eine synthetische Welt zu erschaffen. Also habe ich zu meinem Pittsburgh Modular Taiga-Synthesizer und dem Analog Rytm gegriffen, von dem viele der Drum-Sounds stammen. Ich habe einfach versucht, so viel wie möglich da herauszuholen, habe ein paar Sachen angeschlossen und sieben oder acht Minuten lang aufgenommen. Normalerweise arbeite ich nicht so und würde viel mehr auf Qualitätskontrolle achten. Aber Coralie wollte, dass ich ihr alles schicke, damit sie es sich anhören und sagen konnte, Minute eins bis drei funktioniert gut oder da sind zwei Sekunden, die mir sehr gefallen. Daraus haben wir angefangen, eine Palette und eine Klangwelt zusammenzusetzen, die sich wie The Substance anfühlte, von der alles Weitere ausgehen konnte.
Sind Pedale deine wichtigste Inspirationsquelle, wenn es um Sound-Bearbeitung geht?
Ohne abgedroschen klingen zu wollen: Es ist schon etwas Schönes, Knöpfe und Fader berühren zu können, weil es sich irgendwie interaktiver anfühlt. Der Computer nimmt viel auf, gibt aber nicht viel zurück. Bei manchen Geräten wiederum kann man Regler auch nur minimal drehen und dabei denken: Oh, was war das? Das ist inspirierend und führt irgendwo hin. Aber dennoch: Der Großteil der Sounds, die ich für den besagten Track namens Can't Stop erzeugt habe, stammt tatsächlich aus der Resonator-Anwendung von Ableton Live. Im Grunde habe ich einen Sound gebaut, den ich gut fand und ihn mit Pedalen bearbeitet. Aber die Kernsounds, die zu hören sind, stammen direkt von Ableton. Diese präzisen digitalen Sounds haben etwas Großartiges. Die gesamte Perkussion stammt vom Wavetable-Synthesizer von Ableton. Digital, aber ein kurzer, knorrig klingender Typ. Ableton ist definitiv meine bevorzugte Grundlage beim Arbeiten.
Würdest du sagen, dass Ableton besondere Vorteile für die Arbeit mit Soundtracks bietet?
Der größte Vorteil für mich besteht darin, dass es ein integraler Bestandteil meines Arbeitsprozesses geworden ist und ich viele der Algorithmen von Ableton schnell im Sounddesign verwenden kann. Sogar wenn ich was von externen Geräten aufnehme, füge ich es in Ableton ein, ändere den Pitch und strecke es. Dieser Prozess ist mittlerweile so sehr Teil meiner Arbeitsweise geworden, dass ich nicht einmal mehr wirklich darüber nachdenken muss – es ist ein echt schneller Weg zum Experimentieren und Ableton macht das sehr einfach.
Du hast eben die Verwendung von Ableton-Algorithmen für das Sounddesign angesprochen. Könntest du erklären, wie sie in der Praxis funktionieren?
Ich meine besonders Abletons Audioalgorithmen wie Complex Pro oder Beats, die sich gut dazu eignen, Sounds dieses gechoppte Feeling zu geben. Es muss nicht mal unbedingt um Rhythmus dabei gehen. Manchmal schalte ich den Algorithmus einfach ein und spiele mit dem Hüllkurvenregler, bis entweder irgendwas Undeutliches, spannende Ruckelgeräusche oder Sounds dabei rauskommen, die sich irgendwie übereinander bewegen. Sowas finde ich großartig, um aus statischen Samples etwas Interessantes zu machen. Manchmal kann der Algorithmus aber auch einen sanfteren Pitch-Verschiebungseffekt erzeugen, der nicht sehr deutlich wahrnehmbar ist. Wenn man das zum Äußersten treibt, werden recht interessante Artefakte in die Sounds gebracht, insbesondere in den höheren Registern. So wird ein Restton des natürlichen Klangs erzeugt, allerdings mit tieferem Pitch. Ich mag diese Art von natürlich-unnatürlich Crossover.
Es muss ziemlich reizvoll sein, mit dieser Art Sounds zu spielen. Insbesondere weil Dissonanz ein so wichtiger Teil von Horrorpartituren ist.…
Es macht Spaß, aber um auf das zurückzukommen, was ich vorhin gesagt habe: Hier zeigt sich das intuitive Element von Ableton – es fühlt sich einfach wie eine Erweiterung dessen an, was ich gerade versuche zu tun. Ich arbeite damit schon so lange, dass ich nicht viel darüber nachdenken muss. Das ist in einer so zeitgetriebenen Branche ganz besonders hilfreich.
Der letzte Track, Pirouette, ist wirklich schön und ich habe Bilder von dir gesehen, wie du ihn auf einem Klavier komponierst, das präpariert zu sein scheint, stimmt's?
Es war kein präpariertes Klavier, sondern er wurde auf einem etwas älteren Klavier komponiert, das einem Freund von mir gehört. Ich sollte eigentlich nur drauf aufpassen, während er mit seinem Studio umzieht, aber mittlerweile ist es schon seit drei Jahren hier. Es braucht vermutlich etwas Pflege, aber es ist schön, zwischen all den elektronischen Oberflächen echte Instrumente zu haben, um mehr Tiefe und ein menschlicheres Element dabeizuhaben. Bei The Substance sind die elektronischen Elemente von einer gewissen Unvorhersehbarkeit gepägt, weil es beim Sounddesign hauptsächlich darum geht, an Sachen herumzufummeln. Es ist aber auch sehr hilfreich, die Musik ab und zu in einem Sound zu verankern, mit dem die Leute auf emotionaler Ebene vertraut sind. Ich glaube, das nennt man Intertextualität, wenn man sich darauf verlassen kann, dass ein Sound verstanden wird, weil er schon einmal gehört wurde. Ich habe auch mit einem Cellisten zusammengearbeitet, um noch mehr außergewöhnliche Techniken reinzubringen, aber das menschliche Element kommt immer noch durch, auch wenn all das Teil des Sounddesigns ist.
Folge Raffertie auf Bandcamp und Instagram
Text und Interview: Danny Turner
Fotos mit freundlicher Genehmigung von Amba Pittard-Watt + SCRT