第5話 電子楽器とコンピュータ・ミュージック
今回は、まずComputer Musicにとって必須のパートナーである電子楽器について
考えます。そして、音楽情報科学の研究テーマである「楽音合成 (Sound Synthesis)」
や「信号処理 (Signal Processing)」へと話を進めていくのですが、紙面の関係で
ごく簡単に紹介することになります。また、楽器とコンピュータ、あるいは楽器と
楽器を結ぶものとして、MIDIの未来形であるZIPIについても紹介します。
●「楽器」のモデル
電子楽器というのは、コンピュータやエレクトロニクスの技術を用いている
という違いはあっても、「音楽に使う道具」という意味では楽器の一種でしか
ありません。そこでまず、人類の歴史とともに歩んできた「楽器」の本質を、
音楽情報科学の視点から確認してみましょう。
-----------------
| Energy Source | <-------------------------|
----------------- |
↓ |
----------------------- |
| Nonlinear Generator | <-------------------|
----------------------- |
↓ |
-------------------- |
| Linear Resonator | <----------------------|
-------------------- |
↓ |
----------------- |
| Radiator | <------------------------|
----------------- |
↓ |
( SOUND ) ----------> ( PLAYER ) ------|
上図は、いわゆる「自然楽器」(自然でない電気・電子楽器が登場するまでの
あらゆる楽器)をモデル化したもので、ほとんど全ての楽器が該当するものです。
楽器を演奏する方ならピンとくると思いますが、それぞれのブロックを簡単に説明
しておきましょう。
まず最初に、「エネルギー源」があります。管楽器なら息を吹き込むエネルギー、
弦楽器なら弓を弾くエネルギー、打楽器なら打撃のエネルギー、というわけで、
どんな楽器も自然界に音響エネルギーを放出する以上、物理的なエネルギー源を
必要とします。人間の演奏であれば、これは「躍動」「息づかい」「汗」などの
要素となりますから、「MIDI楽器の演奏ではエネルギーを感じない」などという
批判はこのあたりに関係があるのかもしれません。
次に、このエネルギーを用いた「非線型の音響生成」というステップになります。
声なら声帯の振動、バイオリンやピアノの弦の振動、太鼓の膜振動など、いわゆる
最近の「物理モデル音源」のシンセがシミュレートしているものです。高校の物理
では弦の振動は定常成分がキレイに乗っているものとして扱いましたが、実際
には振動の最初はかなり非線型現象となっています。管楽器にしても、気柱振動
は定常的なようですが、息を吹き込む最初の部分は物理的には「乱流」から始まる
複雑(偏微分方程式の初期条件にカオス的要素が入る(^_^;))なものです。
さらに、この音源部分で生成された音響は「線型の共鳴機構」に伝わります。
セミアコでないエレキギターやエレキベースを生で弾いた時のように、楽器は
振動体の部分だけでは十分な音響パワーがありません。いわゆる自然楽器の
ほとんどは、それぞれ独特な共鳴体構造を持っていて、これが楽器のキャラクター
そのものとなっています。ピアノの響板、ギターのボディ、ドラムの胴などが
これにあたります。この部分は既に音響振動となっているために、基本的に
線型である、つまり倍音構造にそのまま結び付くところがポイントです。
そして最後に、空間に音響を放出する「音響の放射構造」となります。ホルン
やチューバのラッパ部分がもっとも顕著ですが、ギターやバイオリンのボディの
穴などもここに関連しています。
ここから放出された楽器の音響は、もちろん音楽演奏を聴取している聴衆に
届くのですが、それだけではありません。同時に、楽器を演奏しているプレイヤー
にリアルタイムに伝わります。そして演奏者というのは、この音響を聞きながら、
リアルタイムにこの4つのブロックに対してコントロールしています。ここが
もっとも重要なところで、楽器が楽器として本質的に「音楽の道具」となれるか
どうかの瀬戸際なのです。
管楽器や弦楽器であれば、音を鳴らしている時には、ずっとパワーの持続が
コントロールされています。この意味では、ピアノという楽器は鍵盤を押して
ハンマーが飛び出した瞬間から演奏者と物理的に切り離されてしまうのですが、
その直前の打鍵ニュアンスを微妙に反映させる機構と、さらに鍵盤を戻す時の
ダンパーによる消音、あるいはペダル機構での共鳴の制御に特長があります。
そして、もっともこのモデルでわかりやすいのは「声」で、まさに全てのステップ
でのリアルタイム制御が密接に行える、「究極の楽器」なのです。
●電子楽器とその課題
さて、そこで電子楽器の場合ですが、物理的な振動体を使ってピックアップで
拾う「電気楽器」を除けば、エネルギー源としては電子的なものとなります。
まず、ここに大きな問題があります。電子は質量がほぼゼロだからです。(^_^;)
そして、最終的な出口にも問題があります。ごく一部の電気楽器を除いて、アンプ
とスピーカーで空間に音響を出す、というところが全て共通なためです。いくら
電子楽器として頑張って「自然楽器の音にソックリ」にしたところで、出口が
スピーカーだとすると、「自然楽器の演奏をPCM録音したものを再生した」という
音響との違いが、聞いている人にはわからないのです。
この点は電子楽器について議論をする時によく取り違えられるのですが、電子
楽器についてリスナーがいくら議論しても、音楽的には不毛なことなのです。
(かつて、ブラインドテストということで、自然楽器のPCM録音と自社の電子楽器
の音響とを聴取実験して「違いがわからない」という結果をアピールした楽器
メーカがありました(^_^;)。スピーカから聞いていたのでは、サンプラーやPCM
方式となれば違いはありませんから、「電子楽器+アンプ+スピーカ」という
システムと、「実際に自然楽器をその場で演奏」とで比較しなければなりません)
もし、リスナーにとって「違いがわからない」という音響を実現できたとしても、
楽器が音楽の道具だとすると、その楽器を用いて演奏しているプレイヤーに
とっては、「思っていることを音響に反映させる」という点で自然楽器と電子楽器
は大きく異なります。その音楽の演奏のために、たとえば「もっと強く」「もっと
明るく」「もっと粘っこく」などというニュアンスを表現しようと楽器を
コントロールしようとして、できないものがあれば、それは全て演奏者にとって
フラストレーションとして蓄積されてしまうのです。
かつてのアナログシンセのVCFのカットオフとレゾナンスというパラメータが
広く受け入れられたのは、これが人間の「声」の制御モデルと類似していて、
感覚的に自然だったからです。ところがPCM音源の時代になると、確かにスピーカー
から出て来る音は本物に似ている(録音しているのですから当然(^_^;))のですが、
この電子楽器をいざ「演奏」してみると、いつも同じ音しか鳴らない、という
欲求不満に悩まされます。最近の物理モデルシンセが受け入れられたのは、
この点がかなり改善されているからなのでしょう。しかし、これでも楽器の
モデルの一部のパラメータがコントロールできるようになった、という程度の
ものであり、私は最近では物理モデルシンセの「聞くだけでわかる音」に飽きて
きてしまいました。かつての「DX-7サウンド」と同じで、最初はユニークでも、
どこでも同じ音が鳴っているというのは、ちょっといただけません。もちろん
自然楽器、たとえばバイオリンの音はずっと昔からバイオリンなのですが、
バイオリンの奏法は時代とともにまだ発展途上で、楽器がいろいろなアプローチ
にちゃんと応えてくれているのです。ところが物理モデルシンセでは、メーカ
の提供する限られたパラメータしか制御できないために、結果として「どこでも
同じ音がする」という域を出ていないように思います。
●「新しい」電子楽器
このように、電子楽器は「自然楽器を真似る」というアプローチでは、
どうしてもアンプとスピーカーという足かせがあり、前途は多難です。(^_^;)
ところで、これとは別に、「まったく新しい楽器」を目指す、という可能性
があります。かつての「テルミン」「オンドマルトノ」「ハモンドオルガン」
「フェンダーローズ」「ミニムーグ」「DX-7」に続く、自然楽器にはない独自の
新しい電子楽器、というものに期待したいと思っています。
世界中のComputer Musicの研究者の中には、まさにこの分野で色々とアヤシゲな
「楽器」の製作に没頭している人も少なくありません。そしてたいていの場合、
それは「自分で演奏したいから」「自分の音楽に必要だから」という動機と直結
していて、明快です。
この意味では、ヤマハのMIBURIはなかなか画期的なものでしょう。音源として
物理モデルシンセを使っているのも、「手首・ひじ・肩の曲げ」センサという
従来とは異なる新しいコントロールには向いています。ただし私の感想としては、
せっかくのユニークなアイデアが、「ドレミ....」の音階を入力する、という
あまりに伝統的なシステムに抑え込まれているのが残念で仕方ありません。
私は既にMIBURIを作品に用いて発表していますし、現在もMIBURIを使った
新作を作曲中(7月13-14日の神戸ジーベックホールでのコンサートで初演)です。
しかし、ここではMIBURIのセンサ部分だけを切り離し(^_^;)、オリジナル製作
のMIDIコントローラへの単なるセンサとして利用されていて、本体はまったく
使いません。楽器として新しい可能性を持っているというのに、まるで「ヤマハ
音楽教室」のような使い方をするというのは、どこかチグハグだと思います。
MIBURIと似ている楽器に、BIOMUSEというものがあります。MIBURIが30万円ほど
するのに対して、BIOMUSEはさらに一桁ほど高い(^_^;)のが難点ですが、こちらも
演奏のスタイルはほとんど同じような外見となります。1993年のICMC(東京)の
「研究発表セッション」でBIOMUSEの発表をしたタナカ・アタウ氏(スタンフォード
大/IRCAM)は、翌年1994年のICMC(デンマーク)では、「世界でただ一人の
BIOMUSE演奏家」として、コンサートセッションで自分で作曲した作品を演奏
して絶賛されました。鍛えられた上半身裸のいでたちで現れたアタウ氏の両腕
には、「筋電位センサ」のバンドが巻かれています。筋肉の緊張状態をセンシング
してMIDI出力し、MAXで処理されて自作の物理モデル/FM音源をコントロール
するその「演奏」は、まさに見るものが「手に汗握る」ものとなりました。
ちょうど、歌舞伎の「見栄を切る」ような動作がそのまま音響をリアルに
制御し、演奏者の気迫と緊張がそのまま音響に反映されて、まさに新しい楽器、
「音楽演奏の道具」として、見事に演奏者と一体となっていたのです。
このように、電子楽器の課題というのは、この連載では後に検討する予定の
「センサ」「ヒューマンインターフェース」とも密接に関係していますが、
今回はこのぐらいにしておきましょう。
●楽音合成 (Sound Synthesis)
さて、そういうわけで電子楽器のいわゆる「音源」の話になります。本誌の
読者の皆さんであれば、「加算方式(サイン合成)」「減算方式(VCF)」
「FM方式」「PCM方式」などという分類もご存じだと思いますので、ここでは
繰り返しません。私が楽音合成の分類や研究状況に関してこれまでに書いたもの
には、
・調査報告書「音楽情報処理の技術的基盤」『平成4年度 文部省科学研究費 総合
研究(B)音楽情報科学に関する総合的研究』(1993年3月)
・情報処理学会誌「特集・音楽情報処理:音素材の生成」(1994年9月号)
などがあります。いずれも主な大学の図書館などにあると思いますし、実は
私のホームページ の中に原稿を
そのまま置いています(^_^;)ので、興味のある方はご覧ください。参考文献など
もリストしています。また、古くて新しい「ヘンな」(^_^;)音源方式である
Granular Synthesisについても、私が学会発表したOHPシート代わりのHTML原稿
そのものを置いていますので、こちらも参照してみて下さい。
ところで、世界のComputer Music研究者にとって、音楽の素材となる
「音」そのものを作る、という楽音合成というのは基幹となるテーマですから、
現在でも多くのアプローチが続いています。スタンフォード大のChowning博士
が研究して開発したFM方式をヤマハが買い取って製品化したように、一般に
楽器メーカがユニークな楽音合成方式を研究開発するというよりは、研究者の
ほうが現実の製品よりもだいぶ先を行っている、というのは、ここ20-30年の
真実です。そして、従来ではメーカでなければ実際に使えるレベルとして実現
できなかったのに対して、Computerの進歩はこの状況を逆転させるようになって
きました。
つまり、これまでは楽器メーカが作った「音源LSI」とか「DSP」という特殊な
ハードウェアがないと、なかなか楽音合成のような高度なことはできなかったの
ですが、最近のコンピュータの能力向上で、これがソフトウェア的に可能となった
のです。GSとかGM音源のマルチティンバーのSMFデータが、最近ではMIDI音源の
ないパソコンでも簡単に演奏できますが、これが「シンセサイズ」の領域にまで
拡大されるのは時間の問題なのです。既にSGI社のワークステーションでは
MAXの「オブジェクト」に相当する信号処理モジュールが多数動いていますし、
C言語でわざわざ楽音合成アルゴリズムを書かなくても、簡単に楽音合成の実験
ができる時代となってきたのです。もちろん、同時発音数などの制限はある
のですが、モノフォニックの高価な物理モデルシンセが楽器メーカの用意した
範囲の自由度しかないのに対して、ソフトウェアシンセの自由度は無限の可能性
を持つのですから、サンプラーあるいはHDレコーダと組み合わせることで、今後
の新しい「電子楽器」となるのは間違いないと思います。
●信号処理 (Signal Processing)
前述の楽音合成は「音源」の部分ですが、広い意味の電子楽器にとって、
より音楽表現の可能性を広げているのが、「音響信号処理」の領域です。
いわゆるエフェクタというのは誰でも使っているのですが、Computer Music
の研究者は、もっとヘンな(^_^;)、色々な音響効果を求めて、日夜、新しい
手法を実験しています。
ICMCなどの場でComputer Music作品の最近の傾向を見てみると、音源そのもの
の部分は、演奏する人間との接点のところでセンサとか楽音合成の壁があるため
に、むしろ「生楽器の音響にコンピュータでリアルタイム処理」という手法
がよく見られています。ここには、市販のエフェクタを多数駆使して、MIDIで
パラメータを制御するものも含まれますが、より広い自由度を求めて、DSP
の部分までコンピュータ側にもって来る、というアプローチが多いのです。
私も実際にUnix上で信号処理のプログラミングをしていて、それが作品の一部
となっていますが、この話題はNIFTYの会議室でときどき盛り上がっています
ので、興味のある方はそちらで質問して下さい。
●MIDIとZIPI
さて、電子楽器について語る上では、どうしてもMIDIを避けるわけには
いきません。しかし本誌はもともとMIDIの上に成り立っていますし、ここで
今更、MIDIについて解説する必要もないでしょう。そこで、MIDIの限界から
色々と提案されている「ポストMIDI」の中で、最近になって多くの研究者が
注目している「ZIPI」について、簡単に紹介しておきます。
ZIPIとは、point-to-pointのMIDIに対してネットワークを意識した高速の
インターフェースで、音楽情報をパケットとして送る仕様になっています。
メッセージ(音楽情報)は、今はやりのインターネットのHTMLと同じような
「標準の記述言語」を意識しているようで、たとえばMIDIではできなかった
「ノートごとのベンド」(ギターのチョーキングのイメージ?)なども
自在にできるようになっています。
詳しい情報はComputer Music Journalなど色々なところに載っています
(→コラム参照)ので、ここではSPECを詳しく述べることはしませんが、
ZIPIがそのままスタンダードになるかどうかは別として、このような動きがある
ことは注目しておきましょう。
ただし、ZIPIなどの登場によってMIDIがなくなるか、というと、それは別の
問題です。私の印象では、たぶんMIDIは今後も「一つの標準」としてなくならない
と思います。というのも、Computer Musicの専門家などのように「MIDIでは
必要な情報が送れないので新しい規格を作る」というのはごく一部の要請で
あって、通常のポップスとかクラシックの音楽演奏という程度の場合、MIDIで
なんとか間に合っている、という現状があります。カラオケBGMのボイス数は
GSやGMを軽く越えて96ボイスとか128ボイス、と際限がありませんが、情報の
転送規格としてはMIDI程度で「なんとかなっている」、という経済的な状況も
重要なのでしょう。実際、ZIPIを使うとなると、電子楽器にしてもシーケンサの
コンピュータにしても、イーサネットポートをかなり真面目に叩く、という
ぐらいの処理能力が必要となりますから、コスト的になかなか見合わない
ところもあります。将来は、「実用本意のMIDI、音楽的なZIPI」などという
棲み分けができていくのかもしれません。
(コラム)
====
This article originally appeared in Electronic Musician magazine's
March 1995 edition. Electronic Musician is published by Cardinal
Business Media at 6400 Hollis St. Suite 12, Emeryville, CA 94608 USA.
====
Electronic Musician (95年3月号) Tech Page (pp.146) より
MIDI をこえる新しい制御ネットワーク: ZIPI
(Zippity Doo-Dah)
by Scott Wilkinson (訳:増井誠生)
MIDI はもともと鍵盤楽器のために設計されたものだが、多くの異なる楽器
にあわせて適用されてきた。不幸なことに、これらの楽器の一部は MIDI では
うまく動作しない。例えば、ギター型コントローラーは極めて大量の MIDI デー
タをつくりだし、簡単に MIDI の 31.25 kbps のバンド幅をあふれさせてしま
う。それに加えて、各音のタイミング、ピッチ、初期ラウドネス(ヴェロシティ)
が、ガチガチに一体化した形式である。鍵盤楽器であればこれでも構わないが、
これらのパラメータがもともと分離している楽器の場合はどうだろう? さら
に、チャンネル・ボイス・メッセージの問題もある。ノート・オン、ノート・
オフ、ポリフォニック・プレッシャーを除き、チャンネル・ボイス・メッセー
ジは、あるチャンネルの全ての音に同様に働いてしまう。例えば、ある音に対
してピッチベンドをかけると、普通は、同じチャンネルの別の音にも同様なピッ
チベンドがかかるものだが、楽器の中には、少し違ったピッチベンドのかかり
かたをするものがある。
こういった制限があるため、ゼータ・ミュージック・システムとギブソンの
G-WIZ (西部イノべーション・ゾーン)、カリフォルニア大学バークレー校の
CNMAT (新音楽音響技術センター) は共同で、電子楽器のための新しいネット
ワーク: ZIPI を開発した。このネットワークでは、最大 253 個のデバイスに
対応可能で、各デバイスは7ピンの DIN コネクタを持ち、1本のケーブルで、
ZIPI のデータ信号とクロック信号をデバイス間で双方向に送ることができる。
何個かの ZIPI デバイスが、1個の中央ハブに接続される。ハブ同士の多重
接続も簡単に行なえ、各ケーブルは最大 300 メートルまで OK である。もし
1個のデバイスが故障しても、他のデバイスはひとつのネットワークとして動
作可能である。論理的には、デバイスはトークン・リングを形成する。ある時
刻にトークンを持つデバイスだけが、他のデバイスにメッセージを送ることが
できるので、これによってメッセージの伝送に割り込みが入らないことが保証
される。
# 図1 (ZIPI デバイスはハブによって星型接続されているが、実際にはトー
# クン・リングとして機能し、あるデバイスが故障しても動作し続ける)
バンド幅は、完全に可変で、上限は存在しない。最低は 250 kbps であり、
現在利用できるハードウェアでは 最大 20 Mbps までが許される。ネットワー
ク上の全てのデバイスが扱える最大限の速度に自動調整される。
ZIPI の音階層には3レベルがある。それはノート(音)、インスツルメント
(楽器)、ファミリー(楽器族)である。最大 63 ファミリーが存在でき、各ファ
ミリーには最大 127 個のインスツルメントが含まれ、さらに各インスツルメ
ントは最大 127 種類のノートを発音できる。それぞれのノート、インスツル
メント、ファミリーは、ユニークな識別子、すなわち「アドレス」を持つ。ノー
トについては、そのアドレスは、ピッチ(音高)や他の属性とは完全に独立して
いる。(MIDI の場合は、ノートのピッチがすなわちアドレスである) これによっ
て、あるノートに対する、ピッチやボリューム、パンなどを他の属性とは独立
に変化させることができる。また、インスツルメントやファミリーに対してメッ
セージを送ることで、あるグループに属するノートに対して、まとめて影響を
与えることもできる。
メッセージは音楽パラメータ記述言語(MPDL)として符号化される。メッセー
ジの中で、ノート・デスクリプタ(ノート記述子)に相当するデータ列の数字が、
特定のノートに対してどのように効果を与えるかを示す。定義済みのデスクリ
プタは沢山あり、アーティキュレーション(調音)、ピッチ(音高)、ラウドネス
(音の大きさ)、ブライトネス(音の明るさ)、インハーモニシティ(非調和性)、
パンの左右/上下/前後、プログラム・チェンジ・イミディエート(*) (発音
中のノートにもプログラム・チェンジを行なう)、プログラム・チェンジ・
フューチャー(*) (発音中のノートには、プログラム・チェンジを行なわない)
などがある。将来的な拡張のために、未定義のメッセージも沢山残されている。
# 訳注:(*) Computer Music Journal (Winter'94) 所収の ZIPI の論文では
# "Program Change Immediately", "Program Change Future Notes" とある。
MPDL では多くのコントローラー・メッセージが用意されている。その中に
はヴェロシティ(打鍵速度)、スイッチや連続的なペダル、ピックや弓のヴェロ
シティ(打弦/擦弦速度)・ポジション(打弦/擦弦位置)・プレッシャー(打弦/
擦弦押圧)、フレットやフィンガーボード上の位置と押圧、菅楽器の空気流量、
唇の圧力と周波数(金菅楽器の唇の振動)、ドラムヘッド上のポジション(打位
置) などがある。これによって、極めて自由にコントローラを設計し、作成す
ることができる。
G-WIZ は ZIPI デバイスの研究も行なっている。例えば Infinity Box では、
(ギターなどからの)6系統のアナログ入力を受け付け、FFT 解析を行ない、演
奏情報を ZIPI のピッチや音色メッセージにリアルタイム変換する。オーバー
ハイムの FAR 技術 (EM の 95年2月号の"技術ページ"を参照) に基づく ZIPI
音源モジュールも製作中である。これらの開発によって、電子音楽は 21 世紀
に向かって発展するだろう。
=====
この元記事は Electronic Musician 誌の1995年3月号に掲載されたものです。
この訳文は非営利目的に限りネットワーク上での転載を認めます。転載希望者
はあらかじめ訳者(masui@flab.fujitsu.co.jp)に連絡を取り了承を得て下さい。
営利出版物への無断転載は固くお断りします。なお、翻訳に際し田中共和さん
(tomokazu@roland.co.jp)より貴重なアドバイスを頂きました。(Mar.17,'95)
=====