Raffertie: 音楽院から『The Substance』まで

バーミンガム音楽院でクラシックおよび現代音楽作曲を専攻し卒業した、ロンドンを拠点とする作曲家Benjamin StefanskiことRaffertie(ラファティー)。2013年にリリースされた、探求的かつ繊細なテクスチャを持つデビュー・エレクトロニックアルバム『Sleep of Reason』でプロデューサー/DJとしてのキャリアをスタートさせた彼は、Ninja Tuneとの契約から数か月もしないうちに、EA Sportsのスノーボードゲーム『SSX: Deadly Descents』など、商業メディアの音楽制作にも関わるようになった。
その後もサウンドトラックの仕事は続き、ITVの犯罪ドラマ『Strangers』や、Amazonのスリラー作品『Alex Rider』、2021年の映画『Zone 414』『Bull』などに携わった。そして再びAmazon作品となる『The Continental: From the World of John Wickl』の音楽も手がけることに。そんな中、ラファティーは監督コラリー・ファルジャの起用により、昨年話題となったボディホラー映画『The Substance』のスコアを手がけ、ついにハリウッドの本格的な舞台へと歩を進めた。Abletonをメインの制作ツールとし、彼が作り出したエレクトロニック・スコアは、Fargeat監督の大胆な演出とビジュアルに呼応するような、ダイナミックかつ圧倒的な音響世界を構築している。
まずは『The Substance』の成功、おめでとうございます。素晴らしい映画に素晴らしいサウンドトラックでした。サウンドトラック、あるいは音楽業界で働くことを意識するようになったきっかけとなるようなジャンルやスタイルはありましたか?
それが、どこまで遡るかによるんですよね。大学時代には音楽を仕事にしたいと思っていましたが、自分にその才能があるのかどうかはわからなかった。先生たちは現実的な視点を持っていて、広告の音楽で生計を立てている人たちを招いてくれて、「作曲家として自分の音楽だけで食べていくのは難しい。でもスキルを別の形で活かす道もある」と教えてくれたんです。広告の仕事をしながら自分のやりたい音楽を追求する、そういう生き方もあると。なので僕も音楽業界に入るときは、ミュージシャンとして生計を立てたいという希望を持ちつつも、ほかにどんな可能性があるかを常に模索していました。
キャリアの始まりは音楽プロデューサーだったんですよね?
最初の数年間はNinja Tuneと契約していましたが、その出版部門は音楽に限らないので、収入の多くは広告の仕事から得ていました。それが結果的に、広告業界での経験にもつながってよかったと思います。昔から「映画的な音楽だね」と言われることはあったけど、正直あまり意識していなかった。でも2018年に初めてテレビシリーズのスコア制作の機会をもらってからは、どんどん案件が広がっていった。音楽と映像、そしてストーリーが一体になったときの力は本当に素晴らしくて、どの仕事もそれぞれ違った興奮がありました。
専攻はクラシック/現代音楽の作曲ですが、理論ばかりで実践が足りないと感じる学生も多いようです。あなたの場合はどうでしたか?
確かに理論の要素は強くて、和声や対位法の学習にかなり時間を使いました。それ自体は実用的でもあるけれど、どこか現実的すぎるところもある。学期ごとに数回、作品を発表できる作曲家コンサートがありましたが、僕自身は電子音楽に関しては独学で進めていて、先生にそれを初めて聴かせたのは2年目の途中でした。そしたら「いいじゃないか、ぜひ続けるべきだ」と言われて、それをきっかけに音楽院の活動にも統合するようになりました。面白い先生たちにも出会って、楽器編成だけでなく、電気音響やサウンドインスタレーションについても考えるようになった。でも同時にDJセットで使えるトラックもどんどん作っていて、その頃からエレクトロニックの方向にシフトしていった感じですね。

学生時代に学んだことで、今でも活きている知識や考え方はありますか?理論、実践、哲学的なものでも。
理論を学ぶことで、音楽の文脈やアイデアのルーツを理解できるようになったのは大きかったですね。でも音楽って、耳から伝わるものもすごく多い。僕自身、まず直感で反応してから、後で理論的な裏付けを探すというやり方でやってきたんです。そして一周回って、今はまたその直感を取り戻そうとしているところがあります。あまりにも技術的に考えすぎてしまうと、自由さが失われてしまうから。音楽院での学びは、自分がそれまで知っていたと思っていたものを一度解体し、そこにより広範な知識を積み重ねていくプロセスだったと思います。今、自分の音楽を作るうえでは、まず感覚で反応し、それを音に落とし込んでいく。最近リリースした「Can’t Stop」と「Atlas」という2曲について、“混沌”というキーワードで語ってくれる人がいて、それはすごく面白い視点だと思いました。アイデアが渦巻いていて、その中から何か本質的なものを掴もうとする。その中にある“生々しさ”や“超越性”のようなものを伝えられたらいいなと思っています。
スノーボードゲーム『SSX: Deadly Descents』にも参加されていましたが、これはサウンドトラックというよりはゲーム音楽の経験になりますよね?
ゲーム音楽は非常に興味深い分野です。基本的にすべてがエンジンによって制御されるので、音楽はモジュール形式で構成されている必要があります。たとえば8小節ごとにジャンプできるような構造にしたり、プレイヤーの進行状況によって音楽が微妙に変化するような、複数のバージョンを用意する必要があります。SSXの場合は、商業的な感触を持ちつつも、ゲーム内エンジンで自由に操作できるような音楽を求められました。プレイヤーがレベルを進めるごとにその感覚が伝わるような設計になっていたと思います。
『The Substance』以前に手がけたサウンドトラック作品について教えてください。
2018年に初めてテレビシリーズのスコアを担当してから、仕事が連鎖的につながっていきました。パンデミック中には、ミカエラ・コールの『I May Destroy You』で音楽を担当し、その後『ジョン・ウィック』の前日譚である『The Continental』に関わりました。この作品ではロンドン・コンテンポラリー・オーケストラと一緒に仕事をする機会もあり、それ以降「電子音楽+オーケストラ」という組み合わせで声をかけられることが増えました。比較的、スコアリングのキャリアはまだ浅い方だと思いますが、『The Substance』の話が来たのは昨年初めでした。
そのプロジェクトはどういった流れで始まったのでしょう?
12月にエージェントから連絡があり、「何か来るかもしれないから1月は空けておいて」と言われました。その後、過去の作品をまとめたリールの提出依頼があって、それを観た監督のコラリー・ファルジャが5〜6曲にとても強い反応を示してくれたんです。実際に会って話したあと、すぐにプロジェクトは動き出しました。ただ、唯一の大きな問題は“時間がない”ということでした。カンヌ映画祭に間に合わせる必要があったので、すべての音楽を4月末までにミックスして納品しなければならなかった。時間的なプレッシャーはものすごかったですが、それでも作曲は本当に楽しかったし、コラリーとの仕事は素晴らしかったですね。
映画自体もかなり衝撃的でした。初めて観たときの印象と、その後どのように音楽のアイデアを固めていったのか教えてください。
率直に言うと、「今、自分は何を観たんだ?」というのが最初の感想でした(笑)。でも僕が作品に惹かれるときって、必ずどこかに感情的に動かされるポイントがあるんですよね。『The Substance』では、特にラストの第3幕にかけて、画面越しに“怒り”がひしひしと伝わってきた。それがあまりにも生々しくて、ものすごく惹き込まれました。象徴的なモチーフもたくさん登場しますし、セリフがほとんどないにもかかわらず、ストーリーにはものすごく力がある。むしろセリフが少ないからこそ、より強く訴えかけてくる。最初に観た時点で、映画はかなりしっかりと“テンポトラック”が入っていて、その方向性がよく練られていたんですが、コラリーはそれが完成形ではなく、あくまで全体の「起伏」を伝えるものだと明確に言ってくれました。静かな場面、激しく盛り上がる場面をどう配置するかがしっかり共有されていたので、最初のデモ段階からアイデアはどんどん湧いてきました。結果的に、3つの要素がスコア全体の土台になったと思います。
その初期段階で、作品全体のナラティブを形作るような特定の音やサウンドを探していたのですか?
はい。冒頭のタイトルに使われている音、それがまさに“ザ・サブスタンスの音”だとコラリーが言っていて、それがモチーフのような存在になりました。そして、物語の中心にいるエリザベスとスーという2人のキャラクターの“音の世界”というアイデアもありました。エリザベスの音には、有機的で自然な美しさが求められましたが、同時にハリウッドのノスタルジアについても多く語り合いました。彼女は劇中で、キャリアの新しいフェーズに入った女優という設定なので、『めまい』や『市民ケーン』のようなクラシック映画のスコアを参照したんです。
一方のスーは、若さを象徴する存在でありながら、人工的でハイパーリアルな世界に生きるキャラクター。そこから、強烈なキックとサブベースが生まれました。この2つの音世界を組み合わせて、“The Substanceの音”を作り上げたんです。あるシーンでは、カメラが回転してスーツ姿のスーを捉える瞬間があるのですが、そこでスネアの音が映像のカットとピタッと一致して、それを観たとき「これだ」と思いました。さらに、この2つの世界がぶつかり合っていくにつれて、音楽もどんどん混沌として、攻撃的で暴力的な方向へ進化していきます。そのプロセスを音で表現するのは、とても面白かったですね。
ホラー映画では、“無音”が恐怖を演出する重要な要素になりますが、どこで音を入れるべきかという衝動とのバランスはどう取っていますか?
これは演技の力によるところが大きいですね。この映画では、俳優たちの演技が本当に素晴らしかったので、無理に音楽で感情を補う必要がないシーンが多かったです。たとえば、エリザベスが初めて注射を打つ“発動シーン”と、その直後にスーが誕生するシーン。最初に観たバージョンでは、注射の直前までは完全に無音だったんです。でもその後の編集では、少し音楽が加えられていて。そこで僕はコラリーに「ここは音楽を入れない方が孤独感が際立って、観る側もエリザベスの心情により深く入り込める」と提案しました。演技がそこまで強くない作品では、音楽で補う必要があるかもしれませんが、この映画ではそういった“支え”がなくても成り立つシーンがたくさんありました。
それに、最初から全開で盛り上げてしまうと、後で音楽的なピークを作る余地がなくなってしまうんです。だからこそ、監督と綿密にコラボレーションしながら「どこで押し、どこで引くか」を判断していくのが大事。自分の音楽を聴いてもらいたい気持ちはもちろんありますが、やりすぎないことも同じくらい大切です。

テンポトラックを見たあと、共通のテーマや音色をライブラリ化していくんですか?それとも制作しながら変化していく感じですか?
ある程度は進化していくものですが、最初の段階では2〜3曲くらいに集中して制作を始めます。たとえば「Fairfield Shallow Water」というギターペダルがあるんですが、それを使うと音が“ぐにゃっ”とした感じになって、液体のような質感になる。これは劇中で頻繁に登場する“体液”のビジュアルと完璧にマッチしていたので、すぐに使いたくなりました。
また、スーのための“合成的な音世界”を作りたくて、Pittsburgh ModularのTaigaシンセとAnalog Rytmを使ってドラムサウンドを構築しました。普段ならもっと品質管理を意識するんですが、今回はとにかく出てくる音を7〜8分ずっと録音して、それをコラリーに全部送って、彼女が「1分目から3分目がいい」「ここに2秒だけ面白い部分がある」とフィードバックをくれる。それを基にして“サブスタンスの音世界”を構築していきました。
音作りの工程では、ペダルが重要なインスピレーション源になることも多いんですか?
大げさに聞こえるかもしれませんが、つまみやフェーダーを“手で触れる”という行為には、やっぱり直感的なおもしろさがあります。コンピューターって、情報はたくさん受け取ってくれるけど、感触としてはあまり返してくれない。でも、アナログ機材だとちょっとつまみを動かしただけで「お、これは何だ?」ってなる瞬間がある。そこからインスピレーションが広がるのが魅力ですね。
とはいえ、さっき言った「Can’t Stop」という曲の音作りでは、実はAbleton LiveのResonatorデバイスを使ったサウンドが核になっています。気に入った音を作ったあとで、それをペダルで加工していったんですが、元の音はAbletonから直接出しています。あの“正確なデジタル感”もすごく魅力的なんです。パーカッションも全部Wavetableシンセから作ったんですが、短くてガリっとしたデジタルな質感が面白くて。Abletonは、自分にとって最も自由に描けるキャンバスみたいな存在です。
Abletonは、映画音楽制作においても具体的なメリットがありますか?
僕にとっての最大のメリットは、自分の制作スタイルの中に完全に組み込まれているということです。Abletonのアルゴリズムを使って、サウンドデザインをすばやく試すことができます。たとえば、外部機材から録音した音もすぐにAbletonに取り込んで、ピッチを変えたり、伸ばしたりする。これがもう自然な流れになっていて、特に意識せずにできるんです。制作時間にシビアな業界だからこそ、すぐに試せる環境が整っているのは本当にありがたいですね。
Abletonのアルゴリズムをサウンドデザインで活用しているという話でしたが、具体的にどういった使い方をされているんですか?
主に使っているのは、Abletonの「Complex Pro」や「Beats」といったオーディオアルゴリズムですね。たとえば「Beats」は、音を細かく分断して、まるで刻まれているような質感にできるので、リズム以外の素材にも試してみたりします。スライダーをいじっていると、意図しないけど面白い“ブツブツ感”や、“音が重なり合って動くような効果”が生まれる。スタティックな素材でも、そこから何か新しい音の動きを引き出せるんです。
また、アルゴリズムを極端に使うと、ピッチシフトのような変化が自然に起こって、特に高域でノイズのようなアーティファクトが出ることもあります。それがまた、“人間の声のようでもあり、そうでないような”独特の響きになるんです。その“ナチュラルとアンナチュラルの中間”みたいなものが、すごく面白いと感じています。
ホラー映画って、不協和音の重要性がとても大きいですよね。そういう意味でも、Abletonで遊びながら作る音ってすごく魅力的ですよね。
まさにその通りで、それこそがAbletonの“直感性”だと思います。もう長く使っているので、いちいち考えずに操作できるし、それが時間的に追い込まれている現場ではすごく助かります。
エンディング曲「Pirouette」はとても美しいですね。写真で見た感じ、プリペアド・ピアノを演奏していたように見えましたが…?
実はプリペアド・ピアノではなく、少し古い普通のピアノです。友人の持ち物で、彼がスタジオを移転する間だけ預かっていたはずが、気づけばもう3年うちにあります(笑)。多少メンテナンスは必要かもしれませんが、電子的な音の中にこうした“本物の楽器”が加わることで、音に深みや人間らしさが出るんです。
『The Substance』では、電子的な要素がどこか予測不能な感覚を与える一方で、時々こういう“誰もが知っている音”を入れることで、感情的な接点が生まれる。それって「インターテクスチュアリティ(間テクスト性)」とも言われる考え方で、誰かが以前に聴いたことのある音を使うことで、新しい文脈でも感情を引き出せる。今回はチェリストと組んで、かなり特殊な奏法にも挑戦しましたが、そういった中にも“人間の存在感”はきちんと感じられるようにしています。
Raffertieの最新情報は、BandcampとInstagramでチェック
テキスト・インタビュー:Danny Turner
写真提供:Amba Pittard-Watt + SCRT