Junichi Oguro:立体音響システムが切り開く新領域
マルチチャンネルを活用した音声表現がますます身近なものになってきている。ホームシアターのような小規模のものから、プラネタリウムなどの大規模設備まで、マルチチャンネルの活用の場は拡大を続けるばかりだ。そんななかで今後の発展にますます期待が高まっているのが、立体音響システム - 多数のスピーカーを駆使して構築される、次世代の音楽体験環境だ。
実在する音環境をリアルに再現するだけでなく、映像によって生み出される没入空間で現実にはあり得ない音楽体験を提供するなど、立体音響システムはこれまでにない表現の枠組みを拡張する大きな可能性を秘めている。立体音響システムを使った音楽表現や、映像という視覚情報と一緒に行う音楽制作には、どのような魅力があるのだろうか? ステレオ環境と比較したとき、制作のアプローチはどのように違うのだろうか?
そうした疑問を解決するため、今回、話を聞いたのが、札幌を拠点に活動する作曲家/サウンドアーキテクト/プロデューサーの大黒淳一だ。ドイツのZKM(英語)で研究されてきた43.4チャンネル立体音響システムKlangdomに対応するプラネタリウムの音響空間デザインを務め、2008年北京オリンピックのadidasのプロジェクトで音楽制作を担当した経歴を持つ彼は、大学での講義やAbleton認定トレーナーもこなすかたわら、セルフレーベル43dからは自身のシングルのリリースを控えるなどマルチな活動を展開している。
先日公開されたOne Thingで披露されているように、映像をインスピレーションにして楽曲制作を行う彼とのインタビューでは、視覚情報を図形楽譜のように活用するテクニックのほか、音との向き合い方の変化や、新しいリスニング体験の可能性など、さまざまなトピックについて話を聞くことができた。
大黒さんは43.4チャンネル立体音響システムを初めて日本で取り入れたプラネタリウムでサウンドアーキテクトを手がけています。立体音響システムとは、どのようにして出会ったんでしょうか?
2000年以降、個人のプロジェクトとしてマルチチャンネル(4ch/8ch)のフィールドレコーディング作品を制作しています。数年前に作った”Harmonia”は、超指向性スピーカーを用いた4chのマルチチャンネルで、サウンドアート作品として現代美術の個展に出展しました。当時からZKMのKlangdomの存在は知っていましたが、実際に体験したのは10年前くらいです。そのときは北アイルランドのベルファストに滞在していて、日本で立体音響システムを汎用化するにあたって必要になる技術をあらためてリサーチしていました。SARCという大学の音響研究所にSonic Laboratoryという立体音響システムがあって、現在の43.4チャンネル音響システムのベースになるものが使われていたんです。2017年にコニカミノルタ・プラネタリムで新しい音響システムを導入することになったとき、43.4チャンネルのKlangdomは映像とも親和性が高く、プラネタリウムのドーム状の空間内で次世代のコンテンツを作り出せると思いました。そこで実際にZKMに滞在して日本で導入するためのプロジェクトを進めて、プラネタリウムのサウンドアーキテクトを担当しました。このプラネタリウムでは、わたしが音楽監督として43.4チャンネルの立体音響で楽曲を制作したプログラムの上映を予定しています。
43.4チャンネル立体音響システムの仕組みについて教えてください。
主な構成として、スピーカーなどの建築音響設計のハードウェア部分と、制作した音を43.4チャンネルで再生するためのソフトウェア部分が必要になります。プラネタリウムでは、VBAPという3次元音響パンニング法(Vector Base Amplitude Panning)方式と、没入型の3Dオーディオフォーマットであるアンビソニック方式のどちらでも立体音響の再現が可能です。このVBAP方式では、トライアングルで構成された3台のスピーカーのベクトル合成によって立体的な音を作り出します。プラネタリウムのドーム状の空間をトライアングルのスピーカーで囲んで理想的なレイアウトになる台数が、43台なんです。トライアングルになった3台のスピーカーを1層のレイヤーとして考えると、天井のトップスピーカー1台を基準にして、ドームの形状に合わせて14層のトライアングルが均等なバランスで配置されています。
そうした技術や理解をどうやって深めましたか?
個人でマルチチャンネル作品を制作するには、機材面のほかにソフトウェア面でも自分で用意する必要があります。わたしの場合だと、Max/Mspでマルチチャンネルのアプリケーションを制作して作品で使用することが多かったです。IRCAMやZKMといったヨーロッパの音響研究所がこの分野を牽引していて、そこで行われたさまざまなプロジェクトや文献を参考にしながら立体音響の使用方法を学びました。実際の施工では、さまざまな分野の専門家とチームとして動くことになるので、各分野の技術を横断的につなげる必要があります。各分野の最新の技術に関しては専門家からあらためて学びました。
立体音響システムで重要なのは、ハードウェアのみが存在していても意味がないことです。“このシステムを使ってどのような音楽作品やコンテンツを制作できるか?”という部分がとても重要になります。わたしの場合は日本の音響計測機器の会社に勤務していて、残響やインパルス、無響室といった建築音響なども仕事として扱っていたので、作曲家としての音楽という側面と建築音響としての立体音響という側面の両方からアプローチできて、より複合的に理解を深められたと思います。
そうした立体音響システムやマルチチャンネル環境での経験が、自身の楽曲制作にどのような影響を与えていると思いますか?
全体のトーナリティーをさらに意識するようになりました。マルチチャンネルの基本としてステレオの音像があります。3D空間での質感や音の動きなどを考えるまえに、ステレオで成立することも大切にしています。マルチチャンネルには精密楽器のようなところがあって、どのように空間を鳴らすかは制作者のイマジネーションがとても大切になってくると思います。わたしの場合は日常やフィールドレコーディングで実際の空間の音を常に聞きながら制作に活かすようにしています。この“聞く”という行為が以前とくらべてとても意識的になったと思います。
2チャンネルしかないステレオの場合では音の奥行きを表現するためにリバーブやディレイがよく使われます。立体音響システムでは、どのように奥行きを表現するのでしょうか? 立体音響システムならではの表現を教えてください。
立体音響システムでは、音を空間内のオブジェクトとして扱います。2チャンネルの平面的な奥行き表現とは違い、このオブジェクトの位置が音の位置そのものになります。たとえば、全体の3D空間内で音の位置を後ろに定義することで音の奥行きを表現できますし、2チャンネルと同様にリバーブやディレイを使っての奥行き表現も可能です。全体のトーナリティーの重要性は、ステレオでも立体音響でも変わらないと思います。
立体音響の醍醐味は、現時点のリスニングのルールを大幅にアップデートできるところです。これまでだとLやRという左右のチャンネルは人間のリスニングポイントに対して普遍的なものでしたが、立体音響システムは前後左右上下を自由に定義したり、宇宙空間のような空間として使用したりすることもできます。わたしはフィールドレコーディングもやるので、ジャングルで聞こえた音環境を再現することもあれば、まったく違う新たなリスニング空間を作り出して提供することもあります。この新しいリスニング体験こそが新たな表現の拡張性につながると思います。VRなどの仮想現実空間内の音とくらべても、立体音響は空間を再現する非常に高い表現力を持っています。来るべき立体映像時代や没入空間での音響システムとして、映像作品だけではなく、舞台などのエンターテイメントコンテンツでも可能性を大いに秘めています。
逆に2チャンネルでは、立体音響表現テクニックとしてバイノーラル録音がとても面白いと思います。バイノーラル録音はヘッドフォンで聞くという制約がありますが、バイノーラルマイクを使った空間録音の分野は、これからもっと多方面に応用できると思います。
立体音響の作品を制作するときは、どのような過程で進めているのでしょうか?
通常、最初にAbleton LiveなどのDAWを使って作曲して、それから立体音響空間で音の動きを作り出す専用のソフトウェアを使って全体の音の動きや空間をデータとして作り出します。大変なのは、作曲段階で音の動きも頭のなかでイメージしなければならないところです。音楽そのものが時間軸で進行していく表現ですが、そこへ3D空間という音の位置を表すパラメータが加わるので、表現の幅が非常に大きくなります。そして、制作時間も通常より多くなります。現状のDAWでは、このような100~300チャンネルにおよぶ立体音響用のトラック数をDAW間でやり取りしたり、個別に書き出したりするのに不便な部分がまだまだ多いので、専用ハードウェアでシステムを構築してMADI(マルチ・オーディオ・デジタル・インターフェース)間でデータをやり取りするなど、独自のやり方も模索しています。
大黒さんが担当したOne Thingのビデオでは、映像にシンクロさせて楽曲を制作する手法を紹介していました。テレビCMの映像に合わせる音楽も手がけている大黒さんらしい手法だと思います。
この手法は、2008年北京オリンピック用にadidasのプロジェクトで作曲したときの経験から発展しています。このときは、まず絵コンテの情報をもとに作曲して、3DのCGが上がってきたら、その動きを踏まえて調整しながら制作を進めていきました。プロジェクトの終盤にかけて美しい映像が完成していくにつれて音楽も展開していく、という制作プロセスがとても思い出に残っています。このプロセスは、現在の制作のベースにもなっています。現在のLiveでは、オーディオクリップと同じように映像ファイルをビデオクリップとしてタイムライン上で扱いながらカット編集ができます。これは、映像作品から音楽を作るときに重要な機能です。映像を自由にタイムライン上で扱えることは、音楽制作の自由度を高めます。映像と音楽を同期させたり、図形楽譜のようにビジュアルから音楽の着想を得たりすることも可能です。タイムライン上に映像を置いて図形楽譜のように使用するというスタイルを発展させていったのが、今回のOne Thingの手法なんです。
映像を活かして楽曲を制作するにあたって、役立つテクニックや、よく使う音源/デバイスがあれば教えてください。
これは映像編集のテクニックになるのですが、今回のOne Thingのような作品を作る場合は、Blackmagic社のDaVinci Resolveという映像編集ソフトで映像素材のカットや色合いを整えることが多いです。現在はプロ版を使用していますが、フリー版でも十分に編集できるのが魅力です。Liveでアレンジメントするときのように音楽制作的な考えで映像を編集できるので、今後、音楽を制作する人がオーディオビジュアル作品を作っていく可能性をとても感じています。
One Thingでは撮影機材を使っていましたが、街中を歩いていて思いがけない撮影チャンスに遭遇したときは、スマートフォンで撮影しているのでしょうか?
普段はフィールドレコーディング用のサウンドレコーダーと一緒に録画機能付きの一眼レフカメラを持ち歩くことが多いのですが、持ち合わせていない場合はスマートフォンでも撮影します。スマートフォンは、一昔前の映画撮影カメラのクオリティを持っているので、撮影する際は画角や映像クオリティも気にしながら撮影しています。わたしが受け持っている大学の授業では学生にスマートフォンで撮影してもらい、そのファイルでOne Thingのように音楽を作ってもらっています。この手法については、この動画で解説しています。動画内で使っているビデオクリップの入ったLiveプロジェクトファイルもダウンロードできます。
Junichi OguroのLiveプロジェクトファイルを無料でダウンロードして映像で音楽制作する
*ファイルを開くにはLive10.1 Suite以降のバージョンが必要です。
映像の動きは、図形楽譜のように音楽のメロディーやリズムの大きなアイデアになります。とくに人間の動きからは、とてもインスピレーションを受けます。コンテンポラリーダンスや日常の何気ない人々の動き、そのすべての情報に作曲のアイデアは含まれていると思います。音楽を聞くという行為が大きく変わっていっているなかで、YouTubeやInstagramで音楽に接する人も非常に多くなっています。そのようなプラットフォームでのメディア表現としてレコードのサンプリングのように、第三者の映像をオーディオビジュアル作品に使えるようになれば、音楽制作の手法やリスニング方法もさらに変わっていくと思います。