ジェームス・ホールデン:人間らしいタイミングについて
エレクトロニック・ミュージックの制作は、緻密なサイエンスへと変貌を遂げています。グリッド、クリップ、クオンタイゼーションの完璧な世界に足りないものとは、一体なんでしょうか。トラックに「何か」が足りないと感じることはよくあっても、それが何かを特定することは困難です。たいていの場合、答えはグルーヴとスイングの高度な技術にあります。ビートに生気を与えるのは、誤りや誤差なのです。ジェームス・ホールデンが放つ新しいパッチ、Group Humanizerは、大いに必要とされるこの人間らしさを作品に加えることのできるツールです。
ハーバード大での研究をもとに、ホールデンは、オーディオ・チャンネルとMIDIチャンネルのタイミングを自動成形し、人間による演奏でしか得られないオーガニックな押しと引きの雰囲気を吹き込むMax for Liveデバイスを構築しました。ホールデンは自身のライブでこのパッチを導入し、モジュラー・シンセサイザーをライブ・ドラマーのテンポに追従させています。彼は、わずかなタイミングのずれを用いて新鮮みに欠けるグルーヴを生気に満ちたものへと変化させる方法を公開しています。
Group Humanizerには、周到な準備と開発が行われ、たくさんの思いが込められています。パッチをダウンロードしてお試しいただく前に、自身のバックグラウンドと見解、コンセプト実現における課題についてホールデン自身が語った詳細な説明を掲載していますので、どうぞお読みください。人間の知覚に関する複合的なトピックに触れる記事となっており、グルーヴやリズムのより細部に関心のある方にとって興味深い読み物となっています。
人間らしいタイミングについて
「ブラック・サバスがブラック・サバスであった理由は、各メンバーが他のメンバーのプレイをどのように解釈していたか、そこだったんだ。互いのリアクションが緊張感を生み出す ― バンド・サウンドはそうやって出来上がる。テクノロジーのおかげで、「正確さ」を得ることは簡単になった。ただ、正確さを得るためにテクノロジーに頼ると、人間らしさがすべて取り除かれてしまう。現在の音楽制作のほとんどが、パートを作成し、パーフェクトな演奏を行い、それをコピペするという作業だ。すべてが完璧なタイミング、完璧な音程。だがそれはパフォーマンスではない。私が目指したのは、ブラック・サバスにバンド一丸となってパフォーマンスさせること、つまりジャミングさせることだった。彼らはパフォーマンスのエキスパートだからね」 ― リック・ルービン
昨年『ニューズウィーク』誌に掲載された、伝説のプロデューサーでありコロムビア・レコード共同社長であるリック・ルービンのアンドリュー・ロマーノによるインタビューを読んでからというもの、この引用箇所が頭から離れませんでした。このインタビューが公開されたとき、周りのミュージシャンは皆、このインタビューのことを口にしていました。作品をリアルなものにすることについて語ったルービンのインタビューは、皆の心を打ったようでした。私はというと、ルービンは紛れもない事実を示したのだと感じました。私の心の中にずっと前からあった考え、つまり、ごまかしようのないライブ・パフォーマンスの魅力は音楽を愉しむということにおいて絶対的に重要なものであるということです。そう感じたのは、私とルービンだけではなかったようです。米国科学アカデミー紀要(Proceedings of the National Academy of Sciences)に発表された、ハーバード大の研究者ホルガー・ヘンニヒの科学的研究によってもこの考えが検証されています。
ハーバードの研究者たちは、演奏のある側面にフォーカスを当てて研究を行っています。2名が一緒に演奏する際のタイミングです。ミリ秒単位まで詳細に計測されています。その結果分かったのは、各音のタイミングは、両方の演奏者がそれまでに弾いた音すべてに依存しているということでした。作品の冒頭近くにタイミングのわずかなずれがあれば、それ以降のすべての音、最後の音まで影響を及ぼし続けるのです。二重奏を行う場合、一方のミュージシャンが演奏するすべての音が、もう一方に影響を及ぼします。逆もまたしかり。つまり、双方向の情報伝達が生じているのです。
ヘンニヒ博士の論文には、この往復の情報伝達が深く基本的なレベルでも生じていることを示す他の研究結果も参照されています。実験によると、二重奏を行っているミュージシャンの脳の電気活動のパターンは、ほぼ正確に一致しています。神経科学者には、リズム(音楽だけでなく、動作や発話におけるリズムも含む)こそ、人間が何かの「異常性」、不自然性を見抜く際の指針であると考える者もいます。さらにリズムは、幼児が同種の他の動物を認識する助けともなります。つまり、人間のタイミングとは非常に重要なものなのです。
録音技術の発明まで長い年月の間、人々が耳にする音楽の形態はライブ・パフォーマンスに限られていました。録音技術の黎明期においては、ライブ・パフォーマンスとあまり変わりない状況でした。ミュージシャンが音響状態の良い室内に集まり、満足のいくテイクができるまで同時に演奏するという方法でした。しかし、技術の発達とともに、ミュージシャンごとの個別レコーディングや、必要に応じたオーバーダブが可能となりました。これにより、レコーディング費用は大幅に低下し、それに続いて新しいアイデアが生まれました。音楽のレコーディングの目的に、各ミュージシャンの「パーフェクトな」パフォーマンスをとらえることが加わったのです。デジタル・スタジオ設備が登場すると、この傾向はますます加速します。ベーシストは、序奏部を一度も間違えることなく演奏することを要求されなくなりました。ベーシストがベースラインを1回きちんと演奏できさえすれば、プロデューサーはこれを必要に応じてコピー&ペ―ストすればいいのです。また、オーディオ情報がコンピューター上で簡単に加工できるフォーマットへと変換するにつれ、音楽ソフトウェアは一定で融通の利かないグリッドへと音楽を押し込めてしまいました。
そのため、長い年月を経るなかで、レコーディング作品は、単なるライブ・パフォーマンスの録音からまったく別の怪物へと進化を遂げています。ミュージシャンがレコーディング・プロセスにおいてどの時点でも同時に演奏することがなければ、ミュージシャン同士の双方向の情報のやりとりはありません。せいぜい、テープから新しいレイヤーにオーバーダブするミュージシャンへの単方向のタイミング情報の提供があるだけです。
例として、ハーバード大学チームは3バージョンの『ビリー・ジーン』を制作しています。どのバージョンも、ランダム・エラー(拍がずれる平均のミリ秒)の規模は同じですが、それぞれのエラーの相関性に違いがあります。
[クリップ1]
最初のクリップは、完全にランダムなタイミング・エラーが挿入されており、前のタイミング・エラーと現在のタイミング・エラーの間につながりはなく、それぞれのパート内のエラーにもつながりはありません。結果として、明らかに音楽性が損なわれ、不自然な音になっています。
[クリップ2]
次のクリップは、各ミュージシャンがクリック・トラックに合わせて別テイクで録音した場合のレコーディングを再現したものです。各パート内のすべてのエラーは先行するエラーにつながっていますが、パートごとのタイミング・エラーには因果関係はありません。このバージョンは、技術力のないミュージシャンのグループが演奏したような、しまりがなく、説得力に欠けるサウンドになっています。
[クリップ3]
最後のクリップは、論文で開発されたモデル(「確率的フラクタル連結」)を使用して、複数のミュージシャンが一緒に演奏した場合を再現しています。平均エラー・サイズはどのレコーディングも同一だったにもかかわらず、最後のレコーディングは締まりのなさが感じられなくなっています。各パートがまとまって自然な動きになっているので、外れている音を指摘するのが難しくなっています。
要点はこうです。すべてが同じテイクで録音されていれば、タイミングにかなりばらつきがあってもあまり問題にはなりません。それは間違いには聞こえず、音楽の自然な動きとして認識されるからです。しかし、パートをマルチトラック録音したり、シーケンスされたパートを人間が演奏したパートと組み合わせたりする場合、タイミングのずれは際立ってしまいます。おかしな音に聞こえるのは、それが自然な音ではないからで、不自然さを識別可能な人間の聴覚がこれらの音を不快で好ましくないものとして判別するからなのです。
スタジオ技術の発展に従って、レコーディングで許容されるタイミングのずれの大きさを縮める必要が出てきたというのは、意図しなかった結果でした。タイトなグリッドに合わせて演奏しなければ(あるいはそう見せかけなければ)、ずれはかなり目立ってしまいます。これが本質的に良くないことだと科学をもって証明することは不可能かもしれませんが、この過程で何かが失われてしまったことは確かでしょう。より自然な音楽的会話は、オーディエンスとのよりよい結びつきをもたらすのでしょうか?また、人間がもたらすタイミングのずれを作品からすべて削除してしまったとき、ミュージシャン同士の音楽的相互作用はそれでもなお何らかの意味を持つのでしょうか?
私にとって、ライブの喜びとは、こういった相互作用を目の当たりにすることであり、その瞬間に実際に起こっている何かを目にすることです。バンドをライブで観て感動し、そのライブ・アルバムを聴いて、あのときの感動がとらえられていないとがっかりしたことがあるのは私だけではないでしょう。エレクトロニック・ミュージックのアーティストが、ステージ装飾もほどほどに、あらかじめ用意したWAVファイルをスピーカーから流すだけのライブを行うのなら、その結果として精彩を欠いた覇気のないライブとなるのは痛々しいほど明らかです。また、レコード・コレクションを聴いていて、バンドがジャミング演奏したLPと、費用の高額なスタジオで丹念に構築したLPから得られる雰囲気があからさまに異なるのは予想できることでしょう。
コンピューターベースの音楽畑出身ではありますが、私は、長年にわたって自分の音楽をリアルなサウンドにする手法について実験を重ね、できる限り演奏し、カオス的なシステム(ソフトウェアそしてモジュラー・シンセサイザーとして)を構築し、ミュージシャン間に生じる表現反響のようなものをシミュレートしようと試みてきました。しかし、実際のミュージシャンを介在させることなく、納得のいくタイミングを得ることは非常に難しいことです。
ホルガー・ヘンニヒの研究で提案されていたモデルを使用して、私は、コンピューターで生成された複数のパートに、まるで実際のミュージシャンが一緒に演奏しているような、人間によるタイミングのリアルなシミュレーションを注入できるLive用ソフトウェアを開発しました。実際のミュージシャン(私のライブで一緒に演奏したジャズ・ドラマーなど)の入力を聴いて、そのタイミングのずれに自然な形で反応することもできます。このような機能がコンピューター・ミュージックにもたらされるのはこれが初めてのことです。今後は、あまりにも整然としていて不自然なサウンドへのごまかしへの言い訳はもうできません。抵抗勢力への私なりの貢献と考えていただければ光栄です。
ジェームス・ホールデンのGroup HumanizerをMaxforLive.comからダウンロード
ジェームス・ホールデンについて詳しくは、FacebookおよびSoundcloudをご覧ください。