Computer Music Magazine連載記事

「音楽情報科学の世界」

長嶋 洋一

(連載 : 1996-1997年)


    1. イントロダクション
    2. インターネットとコンピュータ・ミュージック
    3. コンピュータに音楽を演奏させる
    4. コンピュータに音楽を聴かせる
    5. 電子楽器とコンピュータ・ミュージック
    6. コンピュータとセッション演奏する
    7. コンピュータに音楽を創造させる
    8. コンピュータに歌わせる
    9. マルチメディアとコンピュータ・ミュージック
    10. 人間とコンピュータ・ミュージック
    11. コンピュータ・ミュージックの先端状況
    12. これからのコンピュータ・ミュージック


第1話 イントロダクション

 皆さん、はじめまして。この連載では、本誌の本来のテーマであるMIDIとかDTMに
こだわらない(^_^;)、より広い意味でのComputer Musicについて、いろいろな視点
から紹介するとともに、アイデアの刺激剤として一緒に考えてみたいと思います。

 まず最初に、簡単に自己紹介しておきましょう。もともとこの連載のきっかけと
なったのは、皆さんよく御存じのNifty-ServeのMIDIフォーラムの一つ、FMIDIUSRの
19番「音楽情報科学」会議室の議長を私が担当しているからです。ここはFMIDIの中
では異色の、MIDIとかDTMと縁のない話題が満載なのですが、ギョーカイの多くの
人達がROMしていることでも有名で、ROMしていた本誌の編集部の方からの執筆依頼
メイルが私に届いて実現したわけです。(皆さん、書き込みをお待ちしています)

 さて私の職業ですが、実はフリーターです。Computer Music分野での音楽活動・
研究のために独立しました。企業の情報化・電子化を支援するコンサルタントの
仕事、いくつかの大学でComputer MusicやComputer Soundや電子情報工学を教える
ことは、中心となる作曲・演奏活動や研究開発活動ともリンクしています。パソコン
でのDTMには、MIDIの専門家でありながらあまり興味がなく、もちろんアレンジ等の
依頼があればどんな音楽スタイルでもやりますが、自分の興味はもっと別のところ
にあります。詳しいことは、Nifty-Serveの上記会議室をご覧いただいて、過去の
ログをざっと読んでいただければ判ります。また、この記事が出る頃には「bit」誌
に、昨年カナダで開催されたICMCというComputer Musicの国際会議について、毎年
恒例となった私のレポートが載っている筈ですから、こちらもご覧ください。

 最近の活動としては、昨年秋に東京(日独文化フォーラム)と神戸(神戸国際現代
音楽祭)で新作を発表しました。新しい音響信号処理手法「Granular Sampling」
を施すために自宅のSGI Indy上でオリジナルのソフトを書き、作曲は全て"MAX"
のパッチとして記述しました。ここ数年、シーケンサはまったく使っていません。
ステージでは2人のVocalとともに、私はPower Gloveを改造した自作のワイヤレス
センサを装着して指揮をしました。また、京都(日独メディア・アート・フェスティ
バル)で発表した新作では、CGアーティストと組んで、音楽と映像とダンスによる
マルチメディア・インタラクティブ作品を発表しました。他にも、センサとMIDIを
組み合わせたインスタレーションなどへの制作協力が、数多くあります。私に
とって、オリジナルのセンサや音源そのものを製作したりオリジナルのソフトを
開発することは、五線譜や図形譜などの楽譜を書くのと同じ作曲の一部で、新しい
Computer Music作品のために欠かすことができないのです。

 そして一方、Computer Musicに関する研究としては、大学やイメージ情報科学
研究所での研究活動から、国際会議や情報処理学会音楽情報科学研究会などの場で、
関連した研究発表・講演などもしています。この連載の中では、どちらかというと、
この研究者/教育者としての立場に比重を置いてみたいと考えています。

●打ち込みだけが音楽ではない !?

 さて、第1話である今回は、これからの連載で皆さんが読み飛ばしてしまわない
ように、インパクトのある事を書いて、「つかみはOK」としなければなりません。
そこで見出しに考えたのが、「打ち込みだけが音楽か?」という、ちょっとだけ
挑戦的な話題です。昔のパソコン程度の能力では、シーケンスソフトで音楽演奏
情報を打ち込むことが、ちょうど能力に見合った処理だったのですが、DTMと
いっても、最近のパソコンはシャレになりません。昔の大型計算機に匹敵する処理
能力が実現できている現在、これまでは専門家しかできなかった、もっと広い音楽
の探求のためのツールとして、DTMそのものが飛躍していくべきだと思うのです。

 もちろん、私はいわゆる「打ち込み音楽」を否定するつもりはありません。自分
で楽器を演奏するためのスキルの修練が不要である、などというDTM擁護論にも納得
できます。しかし、音楽はもっと深い可能性を持っていると思います。既存の楽器
が弾けなければ、あるいは自分の音楽に必要な「音」や楽器が存在しなければ、
それを楽器メーカやソフトハウスに頼らずに自分で作ってしまう、というのは
どうでしょう。音楽を愛好する人間がコンピュータを利用して音楽と接する、その
スタイルやアプローチには、与えられたシーケンサという道具だけでなく、自由な
可能性があることを紹介できたらいいな、と思っています。

●いろいろなコンピュータ・ミュージック

 一口に「コンピュータ音楽」と言っても、実にいろいろな種類とアプローチが
あります。読者の皆さんがそれぞれに音楽を愛しているスタイルが異なるように、
Computer Musicの専門家・研究者・技術者・作曲家たちは、さまざまなスタイル
で挑戦を続けています。この連載では、「音楽」と「科学」という、ちょっと
なじみにくい二つの領域が、コンピュータという触媒によってどのように関係
してくるか、という多くの実例を紹介したいと思います。中には、まだアイデア
のみで実現していないもの、新しいと思ったら関連文献が数十年前からあるもの
など、意外なテーマやネタが、世界中に豊富にあることを紹介したいと思います。

 そして今回、もっとも強調したいのが「アマチュアの時代」というポイントです。
かつてのComputer Musicとは、大型計算機のマシンタイムを占有できる専門家の
ものでした。そして次の時代では、スタジオに機材を集められる資金力が音楽
活動の規模を左右していました。また、カスタムLSIを開発できる一部の楽器メーカ
だけが、音楽演奏の基盤となる「電子楽器」や「システム」を支配してきました。
しかし、時代は変わりました。パソコンのソフトで自在に音響が生成できるように
なり、楽器メーカだけが音源を提供できるという図式も終わりました。現在の、
そして近未来のパソコンは「誰でも容易に専門家と同じ土俵に立つ」環境を提供
しています。インターネットで世界中の情報が、専門家の閉鎖的な独占を離れて
交換されています。まさに「アイデアが勝負」の、自由な音楽を追求できる状況が
実現されつつあるのです。

 Computer Musicとは作曲や演奏だけではありません。人間の感性を分析しよう
とする人、新しい音楽理論を構築しようとする人、音楽でマインドコントロールを
試みる人、音楽で家畜や作物を飼育する人、自然現象を音楽に翻訳する人、人間と
コンピュータといずれが作曲したか判別できない音楽を目指す人、宇宙の音楽を
採譜しようとする人、五感すべてを用いた音楽を目指す人、などなど、まったく
アプローチは自由です。コンピュータとは人間が与えたアルゴリズムに従うもの
ですから、人間の発想さえ自由であれば、音楽の可能性もまた自由なのです。

●今後の展開予定

 いろいろと気ままに書いてきましたが、これがイントロダクションの第1話という
ことになります。ちなみに、次回からは、一転していろいろな実例や面白そうな
話題を紹介していきたいと思っています。おそらく、「DTM」という言葉は皆無、
「ZIPI」は出てきますがMIDIという言葉はほとんど出てこない、というものに
なる(^_^;)と思いますが、どうぞよろしくお付き合いください。そして、何か質問
やアイデアがあれば、編集部までお知らせください。新しい面白いアイデアが
あれば、一緒にコラボレーションして、何かやっていきましょう。(^_^)

 以下に示したのは、今後の話題の予定です。連載といいながら、本当なら全部の
話題を一気に紹介したいぐらい、それぞれのトピックには豊富なものがあります。
なお、登場する用語については、この連載の中で、おいおい解説していく予定です。

◆第2話 インターネットとコンピュータ・ミュージック

 まずは、私がSubSysOpとして議長を務める、Nifty-Serveの「音楽情報科学」
会議室について紹介します。これまでインターネットとパソコン通信によって展開
されてきた、主に国内の音楽情報科学の研究の現状についても紹介します。また、
インターネットのメイリングリスト(ML)で関連するものとして、私の主宰する
「improvise-ML」、新しく再開された「MACS-ML」、さらに世界的な情報ネット
ワークである「ICMA-ML」について紹介します。そして最後に、「WWWと音楽
バーチャル・リアリティ」というタイトルで、単なる情報ネットワークとしてだけ
でないインターネットの活用について検討することにします。

◆第3話 コンピュータに音楽を演奏させる

 DTMにとっても基本である「コンピュータによる音楽演奏」の、音楽情報科学の
分野でのアプローチを紹介します。まずは基礎となる「楽譜表現」の現状と課題に
ついて整理します。そして、自動演奏と「芸術的逸脱」の関係、というかなり深遠
な話題にも触れます。また、最近のトレンドの一つである「感性情報処理」に
ついても検討します。ここは日本がリードしていく可能性のある研究分野です。

◆第4話 コンピュータに音楽を聴かせる

 皆さんが「耳コピー」をしている、そのプロセスをコンピュータにさせることを
想像してみれば、この研究分野の困難さがわかります。具体的なテーマとして、
いろいろな種類の「採譜」、さらに高度な話題として「音楽知覚・認知」、あるい
は本格的な音楽学の議論も巻き込んでいる「音楽解釈」について紹介します。誰
でも気軽に音楽を聴いていますが、そこには深遠な中身があります。

◆第5話 電子楽器とコンピュータ・ミュージック

 このテーマは比較的、本誌の内容に近いように思われますが、世界中の研究者は
もっともっと先を行っています。ここでは、「楽音合成」と「信号処理」について、
皆さんがよく知っているような事を避けて(^_^;)紹介してみたいと思います。また、
「MIDIとZIPI」という気になる話題についても検討していきましょう。

◆第6話 コンピュータとセッション演奏する

 Computer Musicの一つの重要なテーマである「人間との共演」について、世界中
のいくつかの研究の現状を紹介して、その課題を検討してみたいと思います。ここ
でのキーワードとしては、「知的自動伴奏」・「テンポトラッキング」、そして
知っている人も多い「ニューロ・ミュージシャン」についても検討していきます。

◆第7話 コンピュータに音楽を創造させる

 作曲というのは音楽創造の永遠の課題です。ここでは、「アルゴリズム作曲と
"MAX"」という新しいパラダイムをまず紹介します。そして、私が最近こだわって
みている「カオス音楽」について、さらにMLを作ってまでこだわっている、
「パフォーマンスとImprovisation」という重要な音楽のテーマについて、
Computer Musicの世界での意義を考察してみたいと思います。

◆第8話 コンピュータに歌わせる

 そんなの無理さ、と一気に結論に行かないで下さいね(^_^;)。コンピュータに
歌わせるという「夢」に向けたいろいろなアプローチは、副次的に面白い産物を
生み出すこともあるのです。ここでは、「電子音響素材としての音声」、さらに
Granular SynthesisとGranular Samplingという音響生成手法、そして人間と
コンピュータの「合唱」というテーマについても考察してみたいと思います。

◆第9話 マルチメディアとコンピュータ・ミュージック

 もともと音楽とはマルチメディア、あるいはマルチモーダルなものですが、
最近のコンピュータ技術はまさにマルチメディアを指向しています。ここでは、
私が実際に作品で行ったアプローチを詳細に紹介しながら、「音楽情報から
グラフィクス情報へ」、「グラフィクス情報から音楽情報へ」、「マルチメディア
・インスタレーション」というキーワードで具体的に考えてみたいと思います。

◆第10話 人間とコンピュータ・ミュージック

 コンピュータ音楽がライブで「演奏」する時に必要なのは、人間の演奏家との
接点です。ここではまず、センサフュージョン技術の音楽への具体的な応用実例を
紹介します。そして、さらに「インタラクティブ・アート」という新しい分野での
Computer Musicの可能性、あるいは「音楽バーチャル・リアリティ」という視点で
の可能性について考えてみたいと思っています。

◆第11話 コンピュータ・ミュージックの先端状況

 ここでは、いわゆる「学会」「研究者」という世界について、まとめて紹介
してみたいと思います。具体的には、国内で中心的な「音楽情報科学研究会」
のこれまでの活動や、関連学会・研究会について紹介します。また、「国内の
研究/海外の研究」ということで、ざっと紹介してみたいと思います。また最後に、
「ICMAとICMC」という、「世界的な究極のComputer Musicオタクの巣窟(^_^;)」の
様子も紹介することにしましょう。(すでに私もその仲間かも...)

◆第12話 成熟した/発散した研究分野

 研究分野というのは、永遠に研究レベルで留まるとは限りません。ここでは、
かつての研究分野が完全に民間レベルに成熟してしまった分野、あるいは研究
として行き詰まってしまった(^_^;)分野として、「光学的楽譜認識と楽譜印刷」
「民俗音楽データベース」「知識情報処理とコンピュータ・ミュージック」と
いうテーマを考えています。まだ内容は変更があるかもしれません。

◆第13話 落ち穂拾い

 最終回については、具体的なテーマを敢えて掲げていません。上記までの内容
でネタ切れだ、というわけでもないのですが(^_^;)、できれば読者の皆さんから
の質問やコメントに対して、「将来的な可能性を検討する」という視点から
掘り下げる、という機会にしてみたいと考えています。

どうぞ皆さん、一緒にComputer Musicの可能性を考えていきましょう。(^_^)

第2話 インターネットとコンピュータ・ミュージック

 インターネットは1995年に爆発的に拡大し、いよいよ日本でも1996年は普及と
定着の年となりそうです。Computer Music研究者の世界では、元々コンピュータ
が専門なのでネットワークは得意(MIDIも一種のネットワークでしょうか...)と
いうことで、早くから音楽情報科学の研究者ネットワークが活動してきました。
今回は、まず最初に「インターネット・ブーム」に苦言を呈したあとで、JUNETと
呼ばれていた時代にまで遡って、インターネットとComputer Musicについていろ
いろと紹介していきたいと思います。なお、前回予告した「WWWと音楽バーチャル
・リアリティ」のテーマは、いずれ別の機会に検討します。

●「インターネットの幻想」いろいろ

 インターネットの爆発的な拡大が話題をさらっていますが、宣伝に流されない
賢い活用法、というのは、まだ日本ではこれからのようです。まず何より、通信
のための料金がアメリカ等に比べるとべらぼうに高く、従量制などの課金体系も
整備されていません。私はだいぶ前からISDNの契約を申し込んでいますが、NTTは
あれだけCMしていながら、「ISDNに移行すると電話番号が変更されてしまう地域
だ」という状況を改善してくれず、まだ実現できていません。もっと日本も、NTT
以外の通信企業を育てて競争させないといけませんね。(^_^;)

 インターネットばかりが取り上げられていますが、日本では、パソコン通信も
なかなか健闘しています。この記事が出る頃にはNifty-ServeからでもWWWが利用
できる事でしょうし、インターネットのたいていのサービスはパソコン通信でも
対応しています。どうせ世界の情報はほとんど英語だから、と割り切ってみると、
「アクティブな日本語による情報の海」であるパソコン通信も、捨てたものでは
ありません。私も両方を日常的に利用していますが、自宅でも出張先でも通信の
アクセスから一日が始まり、電子メイルから新しい仕事が飛び込み(この連載も
突然の依頼メイルからスタートしました(^_^))、WWWでなくても、テキスト情報
ベースの情報処理で、実際にはかなりのことができるものです。

 話題先行でちょっと頭打ちとなったWindows95も、インターネットの時代には
うかうかできません。WWWブラウザのNetscapeは、もはや「標準」として時代を
リードしていますが、ここで面白い現象があります。私は画面一杯にNetscape
のスクリーンを拡大して使っていて、そのコンピュータがUnixのIndyなのか
WindowsマシンなのかMacintoshなのかをまったく忘れたことが何度もあります。
つまり、インターネットのアクセスという目的のためには、パソコンの種類や
OSは何でもいい、という新しい時代に突入しているわけです。新しいNetscape
では、その中でワープロでも表計算でもMIDIシーケンサでも、自由に必要な
アプリケーションを呼び出してGUI環境で使えるようになっていきます。すると、
どんなハードもソフトも、それは単にNetscapeを起動するためのローダでしか
なく、Windowsの画面はNetscapeの後ろに隠れるので、Win95でなくWin3.1でも
MS-DOSでもMacOSでも構わないのです。

 現在のところ、インターネットの利用を前提とした「賢いパソコン選び」と
いうのは次の二つです。その第一は宣伝に乗せられたWindows95でなく、大幅に
値崩れしたWin3.1マシンの新古品を買うことです。Windows95には搭載メモリが
不足するというだけで、強力なスペックで定価50万円ほどした小型軽量のカラー
ノートPCの新品が9万円ぐらいで買えます。Win3.1版でこの作戦をとったり、
パソコンUnixのLINUXを載せる人はたくさんいます。そして第二に、最新の一つ
前(ほぼ半額ですが十分な性能)のモデルのMacを採用する作戦です。MIDIや
マルチメディアでは、まだまだMacの方が便利で強力ですから、アート系の人は
迷わずこちらを選んでいます。(なんせWindows95とは確かにMac87程度、まだまだ
Macの快適さには程遠いですからね。(^_^;))

●情報ネットワークと音楽情報科学

 さて、それでは話題を音楽情報科学とインターネットに戻しましょう。ここ
では、簡単に各種の情報ネットワークのおさらいをしつつ、私の参加している
各種コミュニティを紹介していきます。名前だけで中身を知らないところを紹介
しても仕方ありませんから、あくまで断片的な情報であることを御了承下さい。

 日本の音楽情報科学に関連した研究者などのコミュニティ、いわゆる学会とか
研究会としては、まず音響学会の音楽音響研究会(MA研)が老舗です。そして
これに続いて、若手研究者が中心になって1987年に「音楽情報科学研究会」
(音情研)という私的団体ができ、さらに音楽心理学関係の分野で「音楽知覚
認知研究会」(音知研)という団体もできました。これらのメンバーは、かなり
相互にオーバーラップしています。現在では、音楽情報科学研究会は情報処理
学会の正式な研究会に、音知研は「音楽知覚認知学会」となりました。それぞれ
出世していますね(^_^)。

 そして、音情研のメンバーを中心に、まだJUNETと呼ばれた時代から、音楽情報
科学に関する情報ネットワークとしては、fj.comp.musicというニュースグループ
と、メイリングリスト(ML)としてはcomputer-musicとかjmacsなどが活動して
きました。音楽情報科学というのは、コンピュータサイエンス、情報工学、認知
科学、音響工学、音楽学、心理学、医学・生理学、そして美学・哲学まで関係した
広大な「学際領域」です。そこで、それぞれの分野の専門家が、自分の得意な
部分ではプロとして、そして他の部分では熱心なアマチュアとして、互いに議論
を行うという「場」は本質的に必要なものなのです。このためにJUNETのMLでは、
あるテーマでは質問者が別のテーマで解説者になる、という展開でそれぞれに
ボランティア精神で参加してきました。技術者や研究者に音楽学者が本質的な
アドバイスをしたり、演奏家の素朴なリクエストをコンピュータ技術者が実現
したり、という相互交流は、音楽情報科学研究会の発展そのものの歴史となり
ました。

 この一方で、fj.comp.musicはまだ存在していますが、私はずいぶん前から定期
的には読まなくなりました。この種の情報ネットワークの最大の欠点は、「新しい
人が、昔と同じことを調べずに何度も聞いて来る、という繰り返し(^_^;)」にあり、
このニュースグループを購読する意味を感じなくなってしまったからです。同じ
ように、音楽情報科学に関係している人の全体数はそれほど多くないために、上記
のメイリングリストも開店休業状態が続き、現在では自然消滅に近い(MACS-MLに
吸収合併された)ところです。研究者の世界では、新しい学生が議論に登場して
も、たいていは音楽と関係ない企業に就職して去ってしまうという繰り返しで、
本腰を入れてずっと音楽情報科学の研究に身を捧げているという日本人は、主に
大学関係で数えるほどしかいない、というのが淋しい現状なのです。

 そして現在では、多くの音楽家がインターネットやパソコン通信のネットワーク
に積極的に参加して、情報収集や情報交換に活用しています。私も、CGアーティスト
と通信を利用して共同作品を制作したり、音楽家のためのシステム開発の情報交換
(特注仕様MIDIプロトコルのデータそのものなど(^_^;))に活用しています。
新しいコンサートやイベントへの参加案内や、ワークショップ・国際会議などの
参加募集もインターネットから届いて知ることが多く、印刷媒体の遅さは決定的
になっているように思います。ネットワークをきっかけとして知り合った研究者
とアーティストによるコラボレーションや、音楽情報科学研究会がアート側と
サイエンス側とを「お見合い」させて実現したコンサート「電楽」もありました。

●Nifty-Serve「音楽情報科学」会議室

 私は、Nifty-ServeのMIDIフォーラムがまだ分家せず一つだけだった頃から「音楽
情報科学の会議室」担当SubSysOpとして議長を行ってきました。現在ではFMIDIUSR
の19番会議室で、スタートしてからこれまでの書き込みはまだ1100件ほど、という
地味な会議室です。もともと、音楽情報科学研究会の幹事として、当時はまだ一部
のコンピュータ環境にある専門家(大学や研究所)だけがアクセスできたJUNETの
「音情研ML」と、一般の音楽愛好者のNiftyとの架け橋を行う、としてスタートした
のです。私は自宅からパソコン通信ソフトによって、Nifty-Serveにアクセスしたり
アカウントをもらった大学のUnixマシンにログインして、手作業で両方の情報を
「紹介」という形で交流させてきました。

 もともとアカデミックネットワークのJUNET(今のインターネット)は、所属や
氏名を明記した「実名文化」ですが、パソコン通信はハンドル名という「匿名文化」
であり、この両者での情報交換というのは、いろいろと微妙な問題を抱えています。
そこで、FMIDIの中で特例的にこの会議室だけは「実名記載」をお願いして、皆さん
に協力していただいています。会議室への書き込みは個別の転載許諾なくJUNETの
音情研MLに紹介することがある、というルールで、学会などに縁のなかった方の
素朴な疑問にその道の権威の先生からリプライがあったりして、時にはかなり盛り
上がることがあります。...たいていは静かな会議室ではありますが。(^_^;)

 この会議室のメンバーとしては、大きく3つの種類のグループがあるようです。
まず第一に、音楽情報科学に興味のある熱心なメンバーで、話題によっては色々と
書き込んでくれたり、定期的に活動状況などを報告してくれる「常連」さんです。
私はこの会議室の常連さんのレベルは、ちょっと他のいろいろなネットワークに
比べても胸を張って誇れる、素晴らしい方々だと感心しています。なんといっても
音楽に対する愛情とこだわりが深く、いろいろな話題に対する感度と自由度が
すごいのです。そして第二に、何か「お助け」テーマを抱えて、どこかでこの会議
室のことを聞いて質問しに来る方々です。最近では「MAXねた」が多いですが、
このグループはそのまま立ち去る人と、第一グループにハマッてしまう人とに
分かれます。そして第三の巨大勢力が、「ギョーカイのROM」(^_^;)という、絶対に
発言しないけれどチェックしている、という多数の方々です。一部のお友達は
個人的にメイルでリプライしてくれますが、自分からは何故か書き込みません。
そして、この多くのROMの存在を意識して書き込まれる記事も少なくありません。

 音楽情報科学の会議室のメンバーには、多くの作曲家・音楽家・アーティスト、
さらに研究者・メーカの技術者、そして音楽業界・出版業界などのプロもかなり
いるようです。私は情報処理学会の関連の情報、その他国際会議・シンポジウム・
ワークショップ・コンサート・イベント・ICMA関係などの情報、さらにIEEEやICMA
からたまに流れて来る国際的な求人情報(^_^;)などを、なるべく紹介するように
しています。この会議室を縁として音楽情報科学研究会に入会した人もいますし、
ネットワーク上だけでの知人と、コンサート会場やワークショップ会場で初めて
対面することもあります。実際の会議室での議論をここで詳細に紹介することは、
著作権上のいろいろな手続きが大変なので割愛せざるをえないのですが、過去の
会議室の議事録が1000件分、FMIDIUSRデータライブラリに登録されています。
解凍すると2MBほどになる分量ですが、この中で話題になったネタを吟味すると、
大学情報系の卒業研究になりそうなテーマがゴロゴロころがっている宝庫でも
あります。興味のある方は、どうぞチェックしてみて下さい。また、この会議室
で何か質問をすれば、たいてい誰かがリプライしてくれますので、どうぞおいで
下さい。他の情報ネットワークを知りたい、という質問も大丈夫でしょう。

●MACSメイリングリスト

 あまり拡大せず低迷していたこれまでの音楽情報科学関連MLを統合して活性化
させよう、という新しいMLが、長野高専の大矢さんによってMACS-MLとしてスタート
しました。ちょうど最近のマルチメディアのブームで、Computer Musicに関連した
新しいメンバーが次々に登場しているところです。以下にその概要を紹介しますの
で、興味のある方は直接に問い合わせてみて下さい。

-=*=-=*=-=*=-=*=-=-=*=-=*=-=*=-=*=-

        音楽情報科学メーリングリスト (MACS-ML) 御案内

 Format:
  1. MLの名称
  2. MLの目的、活動内容、説明など
  3. 参加資格
  4. トラフィック(一日何通位とか、少ないとか)
  5. 参加希望の場合の連絡先(E-Mailアドレス)、ガイドの取り寄せ方法
  6. その他 言いたい事など
  7. MLの紹介文の転載条件
=================================
  1. 音楽情報科学メーリングリスト (MACS)
  2. 音楽情報科学(計算機と音楽の双方に関わる研究活動)についての
     情報交換および議論。
  3. 音楽情報科学に興味のある方。資格は問いません。
  4. 開始2か月で120通程度となっております。
  5. 参加御希望の方は macs-ml-request@ei.nagano-nct.ac.jp
     宛に、自己紹介のメールをお願いいたします。
     手動登録ですので、普通の文章にてお願いいたします。
  6. 音楽情報科学に興味を持っているみなさん!
     このたびメイリングリストを開設いたしました。完全に新規募集です。
     趣味でやっている方からプロの研究者まで、幅広い参加を期待しております。
     ニフティのためのメールのまとめ送り機能もサポートいたします。
  7. このMLの紹介文はML管理者に許可を取った場合のみ転載を許可します。
     ML管理者のアドレスは、macs-ml-request@ei.nagano-nct.ac.jp です。
==================================

●improviseメイリングリスト

 最後に、私が音楽科で「コンピュータと音楽」という講義を教えている、神戸
山手女子短期大学に開設した、新しいMLを紹介しておきましょう。このMLは一般
の音楽愛好家や専門家・音楽家、Niftyの会議室からの参加者、そして音楽科の
学生にも講義の演習課題として参加してもらって、議論の記録を共有情報として
WWWサーバに置いて活用していこう、という数年計画の遠大なものです。

-=*=-=*=-=*=-=*=-=*=-=*=-*=-=*=-=*=-=*=-

■■ 「Improvisation」メイリングリスト開設のお知らせ 長嶋洋一 ■■

このたび以下のような趣旨で、「音楽における即興」に関して議論しながらお互いに
勉強しつつより深く音楽を模索していきたい、という新しいメイリングリストを開設
いたしました。興味のある方の積極的な御参加をお待ちしています。(^_^)

いわゆるDTMと呼ばれるパソコン音楽では、音楽演奏のデータをシーケンサによって
「再生」する、というスタイルが一般的です。これはクラシックの演奏家の卵が、
楽譜に忠実に「機械のような」正確な演奏を目指すのと、共通する部分があります。
しかし音楽というのはそれだけではなく、Computer Musicの研究者は「人間と対峙す
るComputerと共に音楽を実現する」という視点から、音楽のパートナーとしてのコン
ピュータに盛り込むべき「何か」のための音楽美学的な検討を続けています。ここで
重要なポイントが、「音楽におけるImprovisation」という今回のテーマなのです。

Improviseする、というのは単に演奏時のアドリブだけではありません。複数の演奏
者によるセッションを考えてみれば、さらにコンピュータのアルゴリズムによるリア
ルタイム作曲という形態を考えてみると、その領域は非常に奥深いものがあります。
もちろん、このようなテーマでなく、一般的な音楽演奏についてでも結構です。

ヒントとして、「音楽におけるImprovisation」のいくつかの局面を思いつくままに
書いておきましょう。たとえばクラシックにも「ad lib」は一般的な指示用語として
あります。音符として明確に記述されている楽譜上にad libとあれば、解釈・表現の
レベルでの即興を求めているものです。しかし中には、一部は音符を記さずに完全に
演奏者の即興に任せる、というクラシック作品もあります。オーケストラの指揮者と
は、見方によってはもっともImproviseしている演奏家です。

さらにポピュラー音楽の世界では、ボーカルの節回しは個性という名の即興が命です
し、間奏のギター・ソロなどは楽譜にしたり毎回同じ演奏ではシラけてしまいます。
ジャズになれば、最初の1コーラスはテーマを演奏するものの、2コーラス目からはソ
ロ楽器がテーマを下敷きに完全にImproviseしまくるのが基本ですし、バッキングの
ベースやコードもテーマを理解した上での即興の解釈理論(という名は奇妙ですが)に
従って自由に演奏されています。さらに、いろいろなジャンルでの音楽アンサンブル
をImprovisationという視点から眺めてみると、ソロの受け渡し、リフレインの呼応、
全体の緊張と弛緩のバイブレーション、さらには繰り返し回数や終結部等の音楽の構
成そのものなど、実はある意味で音楽の本質であることに驚かされます。いわゆる西
洋音楽でない民族音楽や伝統音楽では、この特性がより鮮明であると思います。

-=*=-=*=-=*=-=*=-=*=-=*=-=*=-=*=-

もし、このMLに興味があって参加してみたい方は、
「improvise-request@kobe-yamate.ac.jp」
宛に、簡単な自己紹介を添えて参加希望のメイルをください。私が手作業で
登録させていただきます。(^_^)

第3話 コンピュータに音楽を演奏させる

 今回は、DTMにとっても基本である「コンピュータによる音楽演奏」の、音楽
情報科学の分野でのアプローチを紹介します。まずは基礎となる「楽譜表現」の
現状と課題について紹介して、自動演奏と「芸術的逸脱」の関係、というテーマ
にも触れる予定です。なお、生身の人間の演奏をコンピュータが認識して「伴奏」
する、という分野については第5話で、また演奏時にリアルタイムにコンピュータ
が音楽情報を「生成」(作曲)する、という分野は第6話で検討する予定ですので、
今回は「あらかじめ用意されている音楽情報にもとづいて自動演奏する」という
領域に限定することになります。また関連して、最近のトレンドの一つである
「感性情報処理」についても検討していきましょう。

●自動演奏と音楽演奏情報

 すでにMIDIによるDTMとして日常的になっているパソコン音楽での自動演奏
ですが、この「音楽演奏」にも、いろいろな形態があります。たとえば、単純な
例として「たった一つの音だけ」という音楽作品(?)を考えてみましょう。
ハードディスクレコーディングによるPCM再生音、あるいは物理モデルの音源
方式であれば、この一つの音が持続している期間、パソコン(あるいは音源ボード)
は一生懸命に処理を続けています。つまり、「音が鳴り続けている」という状況
を持続するためのパワーを必要とします。ところがMIDI音源にこの処理を任せて
しまっている場合には、パソコンは「ノート・オン」情報を出すと、あとは
「ノート・オフ」情報を出すまでは、その時間をカウントしているだけで、
音を鳴らすための緊張感の持続がありません。MIDIのイベント主義の本質が
ここにあり、吹奏楽器や擦弦楽器のニュアンスがなかなか実現できない、と
いう弱点もここに起因します。

 また、MIDIで「90 4C 7F」(ノート・オン)などという情報を出力しても、
この段階ではその音の長さが4分音符なのか8分音符なのかはわかりません。
つまり、MIDIとはMIDI対応の楽器に演奏させるための情報であって、もともと
の音楽が記述された「楽譜」の情報は伝えていないのです。もちろん、最近の
音楽は最初からMIDI情報として演奏されることをスタートラインとして作曲
されるものも多いのですが、クラシックのように作曲家がまず「楽譜」として
表現していた音楽をMIDI電子楽器で「再現」して演奏させようとすると、ここに
色々な問題が発生することになります。

 そこで問題点をはっきりさせるために、今回は、MIDIオルゴールのような
単純な自動演奏については切り捨てることにしましょう。つまり、時間軸に
沿ってMIDIイベントのような演奏情報(イベントシーケンス)が記憶されて
いて、それを順に読み出して「演奏」するだけ、という形態の音楽は、ここ
では相手にしないことにします。なお、この中には、再生演奏の最中に
テンポデータや各パートの音量バランスや音色番号などを変更できる、という
最近のシーケンスソフトの機能も含まれます。20年ほど昔はこのような情報
処理も音楽情報科学の研究テーマであったのですが、これだけ民生の商品と
して出回れば、もはや「研究」の対象ではなくなる、ということです。

 音楽情報の要素としては、よく言われる「音量」「テンポ」「音色」と
いうものがあり、MIDIでは順に、Velocity/Volume/Expression/Panpot、
System Clock/Tempo、Program Change、ということになります。しかし、これは
あくまで刹那的な情報であり、芸術的な「演奏」としての要素としては、
「それぞれの変化」という、より高次の情報が重要となります。つまり、
楽器の種類に関係なく音楽演奏の重要な表現要素と言われる、デュナーミク
(音量の変化)、アゴーギク(テンポの変化)、コロリート(音色の変化)と
いうもので、音楽情報科学の領域でのアプローチも、最近はもっぱらこの
部分に向けられています。最近のMIDIシーケンサの中には、テンポの変化
スピードとかクレシェンドの特性カーブなど、これらの変化形態についての
パラメータを持つものもありますが、Computer Musicの研究者は、どちらか
といえば「楽譜情報の解釈をいかに反映させるか」という方向で検討している
ようです。

 具体的な自動演奏の実現形態としては、音符情報だけを記述したホワイトデータ
のようなデータ部分と、演奏表現に関するデータ部分とを分けて持つ、という
スタイルが一般的です。つまり、前者だけを演奏させてみると、音量もテンポも
変化のない、まさに機械的な演奏が行われる、というものです。そして、ここに
「演奏表現」情報のデータを同時に作用させると、個々のMIDIイベントとして
音量や音色やテンポが微妙に変化した、まさに芸術的/人間的な演奏が
実現される、というわけです。生のMIDIデータをいちいち曲ごとに手作業で
微調整するのでなく、このような手法で普遍性をもって自動演奏させるような
手法やシステムを追求する、というのが、音楽情報科学における自動演奏の
研究ということなのです。目標としては、このようなシステムから生成された
MIDI演奏情報をレコーディングしたデータと、人間の演奏家、たとえば
ブーニンのMIDI楽器による演奏をレコーディングしたデータとが区別できない、
というような境地ということになります。

●楽譜表現(Representation)

 音楽情報科学研究の世界では、まず「楽譜情報をどうデータ化するか」と
いうところで、いろいろな立場と手法があります。対象とする音楽が古典的な
西洋音楽であれば、いわゆる「楽典」というルールブックで比較的スッキリと
処理できますか、音楽というのは世界中にいろいろなものがあります。民族
音楽/伝承音楽の中には、ディジタルデータ化しにくい演奏情報もいろいろ
ありますし、少なくともMIDI情報の枠組みではまったく表現できない、と
いう楽譜情報や演奏情報はいくらでもあるのです。対象を絞りに絞って、
いわゆる西洋クラシック音楽と限定しても、12等分平均律でない音律の
楽器や音楽体系のニュアンスは普通にはMIDIで表現できません。だいたい、
楽譜のたった一つの4分音符であっても、具体的にその音のduration、つまり
ノート・オンからノート・オフまでの時間(ゲートタイム)一つをとっても、
まったく演奏する者の音楽的な解釈に任されています。

 それぞれの音のピッチの表現についても、MIDIのように0から127までの
通し番号で表すというのはまったく音楽的でない、という頑固な立場(^_^;)
が根強く、MMLのようにノートネームとオクターブ値のペア(たとえば「C#4」)
で表現する方法が一般的です。これは和声の概念を処理する場合に重要なピッチ
クラスという考え方にも通じます。そして、調性の概念を導入して固定ドでなく
移動ドの音階として表現する、という部分にこだわった楽譜表現形式もあります。

 また、普通のクラシック音楽では「C#」と「Db」とは同じピッチとして
扱いますが、この両者の楽理的な意味の相違や具体的に異なった周波数となる
「音律」を扱う場合には、これらを区別して表現する必要があります。さらに、
尺八や三味線の楽譜のような「奏法譜」の場合、鳴っているピッチとしては同じ
であっても、指遣いごとにその音楽的な意味が異なる、という音楽の体系も
存在します。この場合、楽音の周波数という物理データでは音楽情報をまったく
表現できません。

 一方、ジャズのコード進行のような音楽演奏情報の表現では、コードネームの
時間軸に沿った羅列、という表面的な情報よりも、コードプログレッションの
解釈とか即興の部分が音楽的に重要です。そこで、人工知能の技術を利用して、
「述語論理の文法表現として音楽情報の記述を行う」という手法もあります。
この場合、LispとかPrologとかのコンピュータ言語の中で、関数とか手続きの
形でいろいろな音楽情報を表現する、ということになりますが、これも音楽表現
の一つのアプローチなのです。

 音の高さと音量とテンポについては、まだそれでも比較的ディジタルデータ化
できそうに思えますが、音色の表現となると、電子楽器の抱えている問題点と
ともに、現在もほとんど手つかずの状況です。FM音源のパラメータや物理モデル
シンセのパラメータを定量化して表現する、というのは現在も行われています
が、楽譜に「明るく軽快に」などと書かれている表現に対応した自動演奏の
手法の研究というのは、まだまだ未開の広野となっています。

 このように、音楽情報をデータ表現として記述するための体系というのは、
世界中の研究者が数十種類も提唱していて、これが全てを網羅したパーフェクト
版だ、などというものは存在していません。そして、最終的な用途によって、
自動演奏に利用されるもの、音楽理論/音楽分析の情報処理のために参照
されるもの、民族音楽データベースとして各種の独特の音楽を記録できるもの、
楽譜印刷(総譜とパート譜など)に利用しやすいもの、など特長のある
オリジナル表現体系が現在でもいろいろと提案されている状況です。

 コンピュータに音楽を自動演奏させる、と一言で言っても、このように演奏
情報の表現方法がさまざまであり、固定したMIDIデータを単純に読み出して
いけばいい、などというだけのものではないのです。ある特定の曲データに
限って納得のいくまでデータを手直しする、というものであればMIDIシーケンサ
でもできますが、音楽の「ある種の普遍的なもの」を目指す、となると大変な
わけです。音楽情報の表現体系自体の中にこのニュアンスやパラメータを記述
できなければ、絶対にそれを演奏の際に再現できませんから、表現の可能性を
求めれば求めるほど、音楽演奏情報のフォーマットは複雑で多量になり、逆に
見通しが悪くなることもあります。いろいろな検討を行って、結局「五線譜が
ベストである」(^_^;)などという結論になる場合すらありました。

●芸術的表現と音楽解釈

 さて、そこで音楽情報科学において自動演奏を研究している人達の目標は、
いかに音楽的/芸術的/人間的に「楽譜に書かれていない演奏」を実現するか、
という部分に向けられます。たとえばウインナ・ワルツは厳密に等間隔でない
とか、バスドラムをわずかに突っ込んだりスネアドラムをわずかにタメると
ノリが良いとか、ピアノ左手のアルペジオでは音量もテンポも一定の周期で
波うっている、などという音楽的ノウハウを「普遍的に表現」して、これを
記述して音楽演奏に反映させよう、というアプローチです。

 MIDIのDTMの世界でも一種のノウハウとして伝承されているこれらの事実を、
研究者は音楽的なルールというデータベース、あるいは演奏情報に作用する
一種の関数群として実現したがる、というわけです。もしこれが完成すれば、
このような音楽的ルールの環境に機械的なホワイトデータを入力するだけで、
芸術的な音楽演奏が生成されるはずだ、という希望に基づいているのです。

 ところが、ここに大きな問題が立ちはだかってきます。このような経験的な
音楽知識とは、いわば「個人の音楽的解釈」の領域であり、それをコンピュータ
科学の枠組みでどう正当化するか、という悩ましい問題です。そこで、ある研究
では多数の被験者による心理実験から統計的に妥当な「音楽心理学的モデル」
を導き出したり、また別の研究では完全に研究者本人の感性に従って解釈モデル
を構築して、このモデルが別の曲に作用して得られる演奏表現を多数の被験者に
よる心理実験で正当化させたりしています。

 そして、この「大多数の人が芸術的と感じる演奏表現」の追求の先には、
著名な音楽家/演奏家のユニークで独創的な演奏表現、という「芸術的逸脱」
の世界があります。ブーニンのピアノ演奏の解釈/表現はそれまで誰も行わ
なかった大胆なものでしたが、これは単なる勝手なワガママでなく「芸術性」
として受け入れられました。では、コンピュータがホワイトデータに対して
行った演奏表現が非常にユニークで例を見なかった場合、果してこれが芸術的
として絶賛されるだろうか、という大変な課題です。(^_^;)

 ここには、普遍的な芸術性と個性的な芸術性という、場合によっては相反する
美学的な問題があり、客観的にサイエンスしたい科学者にとっては、「主観的で
独善的なアプローチ」と批判されかねない危険性をはらんだ難しさがあります。
海外の研究者に中には、「私の音楽的感性が絶対である」と開き直っている人
も少なくありません(^_^;)が、なかなか国内ではそこまで徹底した研究は
あまり見あたらない、というのが現状のようです。

●感性情報処理

 人工知能の一つの関連領域である「感性情報処理」によるアプローチもまた、
このようなComputer Musicの一つの切り口となっています。私も研究員として
参加している、大阪のイメージ情報科学研究所のグループでは、「客観的なルール
として音楽感性情報を扱う」というテーマでいろいろな研究を行っています。
たとえば、人間のMIDI楽器の演奏情報から「感情の高まり」を導出して伴奏
システムに作用させたり、与えられた音楽情報から「もの悲しい」「快活である」
などの形容詞を導出する、といったシステムが実際に実験されています。

 しかし、私は個人的にはまだまだこのアプローチも先が見えないものだという
気がしています。音楽のことがコンピュータに判ってたまるか、という音楽家の
批判に応えられるだけの研究というのは、まだまだ実現されていないというのが
現実だと思います。ただし、それだけにやるべきこと、やりたいこと、やって
みたいことが山のようにあって、研究者としてはたまらない宝庫という印象
です。

 芸術的な音楽表現とか解釈、あるいは感性情報といったテーマは、そのまま
「コンピュータが音楽をどうとらえるか」という領域に直結します。そして、
これをサイエンスとしてモデル化しようとすると、どうしても「人間は音楽を
どうとらえているか」という、まさに文系の世界(^_^;)に入ってきてしまいます。
このあたりのことは、本連載の今後、「採譜」「伴奏」「セッション」などの
ところで蒸し返すことになると思います。何か御意見があれば、一緒に考えて
いきたいので、電子会議室なり編集部にお知らせいただければ幸いです。(^_^)

第4話 コンピュータに音楽を聴かせる

 今回は広い意味での「採譜」について、音楽情報科学の世界で行われている研究
を紹介しましょう。まずは古典的な「リアルタイムでない」音楽情報処理に関する
テーマについて、「楽譜認識」と「周波数分析」の二つの話題を取り上げ、次に
現在進行形の採譜テーマについて検討します。そして、より音楽の本質にかかわる
テーマとして、「音楽の知覚・認知」「音楽感性の認識」などの研究について
紹介します。

●光学的楽譜認識

 コンピュータを使って音楽情報処理を行うというアプローチは、コンピュータ
の歴史そのものと同じ頃から行われてきました。その中でも、光学的スキャナ装置
が登場して以来、「自動的に印刷楽譜から音楽演奏情報を取り込む」という研究は
長い歴史を持っています。これは工学的にはパターン認識技術の応用課題として
格好のもので、人間が手書きした楽譜が音楽演奏としてハッキリと結果に表れる、
というところが研究テーマとしても明確だったからでしょう。そして、現在では
世界のComputer Music研究のテーマとして「光学的楽譜認識」は、ほぼ消えようと
しています。最近の研究発表では、尺八や三味線などの民族楽器の特殊な楽譜を
対象とした、国内の研究者のものが散見されるぐらいです。

 これは、コンピュータ自体の急速な高性能化による結果です。コンピュータに
まだ十分な性能がない時代には、いかに現実的な時間で(たとえばミニコンで
ピアノ譜の1ページを6時間かけて、といった具合(^_^;))認識するか、という
アルゴリズムの工夫が研究の対象だったのです。古典的な五線譜の場合には、
とりあえず並行な五線から座標の基準を決定し、次に音符のマルと棒線と「旗」
によって個々の音符を決定していく、というパターン認識の考え方は変わって
いません。実際には古い楽譜などは五線が厳密には並行でなかったり、部分的に
傾いているものもあります。さらに、音符が和音として重なってきたり、臨時
記号が音符の左右についてくると、多くの例外処理が引き起こされます。
そこに音符の付点がゴミのように付き(^_^;)、さらにアクセント記号や
スタッカート、ffやpppの音量記号、クレシェンド・デクレシェンド、そして
タイとスラーが加わり、ビットマップ画像情報として楽譜を考えると、非常に
ノイズの多いパターン認識問題となるわけです。しかし、これはいずれも
テンプレートに対するパターンマッチングとノイズ除去、さらには過去の
知識を利用した学習などによって、「時間さえあれば改善される」性質のもの
です。事実、Computer Music研究の世界で楽譜認識が大きなテーマだった
時代に比べて、現在のコンピュータは1000倍のオーダで性能が上がっています
から、研究テーマとしての魅力は消えてきてしまったのです。

 そしてもう一つ、市販のソフトとして「楽譜認識」をうたったものも出てきて
います。シーケンサ(音楽自動演奏装置)もそうですが、研究テーマというのは、
いかに低レベルであっても、民生の商品として出てきたものは対象として消えて
行く運命にあるのです。ちょうど本誌の68号では、日本で市販されている3種類
のパソコン版「楽譜認識ソフト」が紹介されています。いずれもパソコンベース
であり、世界の研究者が行ってきたレベルでいえば15年ほど昔のものですが、
とにかく商品として出た、というのは重要なことなのです。たとえば現在の
パソコンが、あと数年で「Pentium相当でクロック1GHz、メモリ128MB」(物理的
にはありえませんが、性能を比較するための表現です)程度の性能になるのは
間違いありません。そうなれば、現在のソフト製品では笑ってしまうぐらい誤認識
しているものも、ほぼ同じ時間でほとんどキチンと認識できるかもしれないのです。
現在のところでは「楽譜認識ソフトの結果を人間が手直し」するよりも「楽譜の
読める人間が手で入力」した方が正確で速いのですが、この逆転は時間の問題と
言えるでしょう。

●周波数分析

 音楽情報処理の中の古典的な領域である「音楽分析」では、分析の対象となる
音楽情報のデータ化として、前述の楽譜だけでなく、実際の音楽演奏の録音を
用いることが少なくありません。今なら「ブーニンに弾かせたMIDIピアノの
MIDI演奏情報」をそのまま使えますが、昔の名演奏者が残した録音とか、MIDI
になじまないフルートやバイオリンや声楽などの音楽分析では、現在でも録音
からデータ化することが一般的です。そこで、音響データから演奏情報を抽出
する、いわゆる「ピッチ抽出」(実際にはピッチだけでなく音色スペクトルや
音量データも同時に抽出)という研究テーマが登場します。これは工学的には
音響信号処理、つまりDigital Signal Processingの応用課題となります。

 音楽演奏の録音(音響信号)の周波数分析というのは、原理的には簡単なもの
です。基本的にはフーリエ分析でそれぞれの周波数成分の時間的強度変化を抽出
すればいいので、最近のパソコンであればDSPボードなど不要で、誰でも簡単に
行うことができます。とはいっても、音楽分析のテーマというのはまだまだ
枯れたものではありません。たとえば、私が昨年作ったソフトで、京都市立芸大
音楽学部の大串先生(音楽心理学・音響学の大御所(^_^))の研究のお手伝い
をしたのですが、ここでも十分な成果が得られました。声楽家のピッチ(基本
周波数)の変動をビブラート精度まで抽出することで、フレーズの音高移動と
ビブラートの関係などについて、かなり明確な音楽的傾向が判ったのです。

 この他にも、楽器の音色についての研究は基本的に周波数分析の繰り返しが
中心ですし、純正律など和音の協和についての研究、あるいは人間のビート感
についての研究でも、周波数分析の手法が用いられることがあります。
ただし注意しないといけないのは、周波数分析は「非定常音に弱い」という
ところです。フーリエ分析の基本定理ですが、低いピッチの周波数分析には
それなりの時間がかかる、つまり短時間では誤差が大きくなる、という問題
は重要なものです。言い替えると、ずっと定常的な音響の分析は簡単ですが、
たいていの音楽音響は刻々と変化していますから、ここにいかに「時間窓」を
かけて分析するか(あるいは処理能力を際限なく上げるか)、というところ
が腕の見せどころとなっています。なお、阪大グループの「複素スペクトル
外挿法」は、現在でももっとも高性能なピッチ抽出手法です。

 また、実際に楽譜に採譜するの場合の問題としては、「音のオンセット」は
わかりやすいのですが、「音のオフセット」は難しい課題をもっています。
無音から音がスタートしたところがオンセットはいいのですが、たとえば
ピアノのような減衰音の楽器では、どこでオフセットとなったのか、つまり
楽譜にする時に「4分音符」なのか「8分音符+8分休符」なのか、というのは
わからないのです。そしてさらに、単音楽器では問題がないのですが、和音の
認識というのもなかなか難しい課題を持っています。たとえば、ある音響から
「E5」という周波数成分が抽出されたとします。ところが、実はこれは「C3」
の5倍音の成分であって、Eという音高は演奏されていない、という事がよく
あります。特定の音を追うだけでなく、全体の音響の塊を解析することも
同時に必要になってくるのです。

●複雑な音響からの採譜

 ここまでは古典的な「採譜」の話でしたが、ここからは現在進行形の採譜
関連テーマです。その一つは「複数の音源の音響から特定のパートを採譜する」
というもので、世界の中でも日本の研究者のアプローチが健闘しています。
いわゆる「カクテルパーティ効果」というものがあります。大人数でワイワイ
ガヤガヤと騒がしいパーティ会場で、人間の耳は遠くのヒソヒソ話の内容を
何故か聞きつけたりできます。これは大変に不思議な知覚認知能力であり、
コンピュータにこれをさせよう、というのは認知科学の重要なテーマです。
Computer Musicの分野では、たとえばオーケストラ、あるいはアンサンブルの
演奏の録音された音響から、特定のパートの演奏情報を採譜する、という「音源
分離」の課題となります。たとえばCDの演奏からどこかのパート譜を「耳コピー」
で採譜してみれば、この作業の難しさがわかるでしょう。(^_^;)

 この場合にも、あくまで基本的にはテンプレートマッチングというパターン
認識の手法が基本となります。個々の周波数成分ごとのスペクトルエンベロープ
と、楽器ごとの特性を記憶しているデータベースとの照合によって、たとえば
阪大グループの研究では、PCM電子楽器による「ピアノ(和音)+バイオリン
+フルート」などのアンサンブル音響から、90%以上の成績で音源分離に成功
しています。ただし、人間の演奏した実際のCD音響などでは大幅に成績が低下
するのですが、テンプレートとしての音響データがばらつくためです。
また、リアルタイムのビートトラッキングのための音源分離を行っている早大
(後藤さん)の研究でも、同様にバスドラムとスネアとシンバルの周波数成分
の違いを利用しています。

 また、人間の知覚認知モデルからのアプローチとして、東大(柏野さん)の
研究では、より統合的な「知覚的音源分離」にチャレンジしています。ここでは
システム自体に音楽的知識処理や階層構造を意識したベイジアンネットワーク
を構築して、周波数分析などボトムアップ的なパラメータを与えるとともに、
音楽的知識によるトップダウン的な「解釈」を行って、結果として音楽的な
情報を抽出しようというものです。従来の採譜システムの出力の場合、そこから
さらに音楽的知識処理を行うところで大きな壁があったのに対して、世界的にも
ユニークな新しい発想であり、私も個人的に期待しています。(^_^)

●リアルタイム・ピッチ抽出と自動伴奏

 「採譜」テーマで現在進行形のもう一つの領域は、ここまでは非リアルタイムで
あった処理を、音楽演奏と同時にリアルタイムで行おう、というものです。これは
「知的自動伴奏」(単純なシーケンスの再生演奏でなく、人間の演奏者の演奏を
リアルタイムに把握して追従する)のためには必須の技術です。海外の研究でも、
これまでにMITのVercoe氏やCMUのDannenberg氏などが見栄えのするデモを行って
きていますが、まだまだ終わったテーマではありません。なお、演奏者がMIDI
楽器を演奏しているのであれば、この情報から「現在どこを演奏しているか」を
知るのは比較的簡単なのですが、ここでもパターン認識の重要なテーマが
あります。つまり、あらかじめデータベースにある演奏情報と照合していくの
ですが、演奏者は完全に正確にその通りに演奏するとは限りません。ミスタッチ
や、音が抜けたり余計に演奏することもあります。そこで止まってしまわずに
追従する、というのも、ちょっと考えてみるとなかなか面白い研究テーマです。

 そして現在でも進行形なのが、MIDIでなく音響として演奏者の音響情報を入力
した場合の「リアルタイム採譜」です。ここではかなり高速な処理が要求され
ることになり、最新のコンピュータ技術が駆使されています。たとえば前述の
早大の後藤さんの研究では、富士通の並列計算機で64台のマルチプロセッサに
よる「力ワザ」(^_^;)で、リアルタイムに音響パターン認識をすることでビート
検出を行っています。この出力はシリコングラフィクス社WSのリアルタイムCG
の人形を、ロックに合わせて踊らせています。(^_^)

 また阪大グループ(片寄さん)では、単音のピッチ抽出情報とともに各種の
センサからリアルタイムに得られる情報をMAXで統合して、全体として尺八演奏
のリアルタイム採譜を実現しています。この場合の出力は、通常の尺八演奏の
幅を広げる演奏情報として音源を即興的に駆動する、というリアルタイム作曲
に利用されています。ここでは、全体として数台のMacと多数のマイコン機器が
協調動作をしています。リアルタイムというのは、なかなか大変なのです。

●音楽の知覚と認知

 ここまでの「採譜」というのは、あくまでコンピュータが印刷楽譜や音楽演奏
の録音から音楽情報というデータを抽出するものでした。ところで、人間が音楽
を聴けば「楽しい」「悲しい」「元気が出た」「感動した」「寝た(^_^;)」等
の感想を持つのですが、コンピュータは何も感じてはくれません。そこで、
人間の音楽知覚・音楽認知のモデルをコンピュータに載せて、ここに採譜情報
を食わせてみよう、というアプローチが出て来ることになります。実際には、
ここには大きく二つの方向があります。

 その一方は、音楽学・音楽心理学からのアプローチです。人間がいかに音楽を
聴取し、感情を喚起されているか、という議論の客観化のためにコンピュータを
利用しよう、というものです。たとえば「音楽知覚における錯覚現象」とか
「何故、協和した和音は心地よいのか」などの仮定に対して、そのモデルを
コンピュータに実装して、他のサンプルに対する出力からモデルの妥当性を
検討する、という例がこれにあたります。認知科学の世界でも、議論のための
議論でなく、モデルの妥当性をコンピュータ上で検証する、というのが一つの
流行になっています。これは一種の人工知能研究とも重複しているようです。

 もう一方は、コンピュータサイエンス側からのアプローチです。研究者は
「音楽的でない」と切って捨てられたくないために(^_^;)、自動演奏の芸術的
表現とか自動作曲データの客観的な評価基準として、システム内の検証アルゴ
リズムとして「音楽的/芸術的であることの判断」機能を欲しがっています。
そこで、音楽家や、音楽学・音楽心理学などの領域の研究者と共同で、
「コンピュータ内の音楽情報がいかに良質であるか」の評価基準を模索して
います。ところがこれが大変な難題なのです。つまり、ある音楽演奏情報が
あった時に、これを人間がどう認知・認識して評価しているか、などというのは
解決されている筈もなく、当然ながらコンピュータシステムにインプリメント
できないのです。(^_^;)

 そこで音楽情報科学研究会などの場でも、愛教大の村尾先生などを中心に
「音楽認知」についての議論を例年、続けています。シェンカー、マイヤー、
ジャッケンドフ、ナームアなどのばりばりの音楽学者の研究(まさに文系)
を真剣に議論して、さらにコンピュータ上のアルゴリズムとして実装し、
そこに多種の音楽情報を入力して検討してみる、という地道な研究が現在も
まさに進められているところです。大阪のイメージラボ(阪大グループ)では
このテーマで「音情勉」(音楽情報科学勉強会)を定期的に行っています。
音楽情報をコンピュータが「人間のように」知覚・認知して次のステップに
進めるのはまだまだ先のことです。そして、さらにその先に、ようやく
「音楽をどう感じる」という音楽感性の世界があります。

第5話 電子楽器とコンピュータ・ミュージック

 今回は、まずComputer Musicにとって必須のパートナーである電子楽器について
考えます。そして、音楽情報科学の研究テーマである「楽音合成 (Sound Synthesis)」
や「信号処理 (Signal Processing)」へと話を進めていくのですが、紙面の関係で
ごく簡単に紹介することになります。また、楽器とコンピュータ、あるいは楽器と
楽器を結ぶものとして、MIDIの未来形であるZIPIについても紹介します。

●「楽器」のモデル

 電子楽器というのは、コンピュータやエレクトロニクスの技術を用いている
という違いはあっても、「音楽に使う道具」という意味では楽器の一種でしか
ありません。そこでまず、人類の歴史とともに歩んできた「楽器」の本質を、
音楽情報科学の視点から確認してみましょう。

             -----------------
             | Energy Source | <-------------------------|
             -----------------                           |
                     ↓                                  |
             -----------------------                     |
             | Nonlinear Generator | <-------------------|
             -----------------------                     |
                     ↓                                  |
             --------------------                        |
             | Linear Resonator | <----------------------|
             --------------------                        |
                     ↓                                  |
             -----------------                           |
             |    Radiator    | <------------------------|
             -----------------                           |
                     ↓                                  |
                  ( SOUND ) ----------> ( PLAYER ) ------|

 上図は、いわゆる「自然楽器」(自然でない電気・電子楽器が登場するまでの
あらゆる楽器)をモデル化したもので、ほとんど全ての楽器が該当するものです。
楽器を演奏する方ならピンとくると思いますが、それぞれのブロックを簡単に説明
しておきましょう。

 まず最初に、「エネルギー源」があります。管楽器なら息を吹き込むエネルギー、
弦楽器なら弓を弾くエネルギー、打楽器なら打撃のエネルギー、というわけで、
どんな楽器も自然界に音響エネルギーを放出する以上、物理的なエネルギー源を
必要とします。人間の演奏であれば、これは「躍動」「息づかい」「汗」などの
要素となりますから、「MIDI楽器の演奏ではエネルギーを感じない」などという
批判はこのあたりに関係があるのかもしれません。
 次に、このエネルギーを用いた「非線型の音響生成」というステップになります。
声なら声帯の振動、バイオリンやピアノの弦の振動、太鼓の膜振動など、いわゆる
最近の「物理モデル音源」のシンセがシミュレートしているものです。高校の物理
では弦の振動は定常成分がキレイに乗っているものとして扱いましたが、実際
には振動の最初はかなり非線型現象となっています。管楽器にしても、気柱振動
は定常的なようですが、息を吹き込む最初の部分は物理的には「乱流」から始まる
複雑(偏微分方程式の初期条件にカオス的要素が入る(^_^;))なものです。
 さらに、この音源部分で生成された音響は「線型の共鳴機構」に伝わります。
セミアコでないエレキギターやエレキベースを生で弾いた時のように、楽器は
振動体の部分だけでは十分な音響パワーがありません。いわゆる自然楽器の
ほとんどは、それぞれ独特な共鳴体構造を持っていて、これが楽器のキャラクター
そのものとなっています。ピアノの響板、ギターのボディ、ドラムの胴などが
これにあたります。この部分は既に音響振動となっているために、基本的に
線型である、つまり倍音構造にそのまま結び付くところがポイントです。
 そして最後に、空間に音響を放出する「音響の放射構造」となります。ホルン
やチューバのラッパ部分がもっとも顕著ですが、ギターやバイオリンのボディの
穴などもここに関連しています。

 ここから放出された楽器の音響は、もちろん音楽演奏を聴取している聴衆に
届くのですが、それだけではありません。同時に、楽器を演奏しているプレイヤー
にリアルタイムに伝わります。そして演奏者というのは、この音響を聞きながら、
リアルタイムにこの4つのブロックに対してコントロールしています。ここが
もっとも重要なところで、楽器が楽器として本質的に「音楽の道具」となれるか
どうかの瀬戸際なのです。
 管楽器や弦楽器であれば、音を鳴らしている時には、ずっとパワーの持続が
コントロールされています。この意味では、ピアノという楽器は鍵盤を押して
ハンマーが飛び出した瞬間から演奏者と物理的に切り離されてしまうのですが、
その直前の打鍵ニュアンスを微妙に反映させる機構と、さらに鍵盤を戻す時の
ダンパーによる消音、あるいはペダル機構での共鳴の制御に特長があります。
そして、もっともこのモデルでわかりやすいのは「声」で、まさに全てのステップ
でのリアルタイム制御が密接に行える、「究極の楽器」なのです。

●電子楽器とその課題

 さて、そこで電子楽器の場合ですが、物理的な振動体を使ってピックアップで
拾う「電気楽器」を除けば、エネルギー源としては電子的なものとなります。
まず、ここに大きな問題があります。電子は質量がほぼゼロだからです。(^_^;)
そして、最終的な出口にも問題があります。ごく一部の電気楽器を除いて、アンプ
とスピーカーで空間に音響を出す、というところが全て共通なためです。いくら
電子楽器として頑張って「自然楽器の音にソックリ」にしたところで、出口が
スピーカーだとすると、「自然楽器の演奏をPCM録音したものを再生した」という
音響との違いが、聞いている人にはわからないのです。

 この点は電子楽器について議論をする時によく取り違えられるのですが、電子
楽器についてリスナーがいくら議論しても、音楽的には不毛なことなのです。
(かつて、ブラインドテストということで、自然楽器のPCM録音と自社の電子楽器
の音響とを聴取実験して「違いがわからない」という結果をアピールした楽器
メーカがありました(^_^;)。スピーカから聞いていたのでは、サンプラーやPCM
方式となれば違いはありませんから、「電子楽器+アンプ+スピーカ」という
システムと、「実際に自然楽器をその場で演奏」とで比較しなければなりません)
もし、リスナーにとって「違いがわからない」という音響を実現できたとしても、
楽器が音楽の道具だとすると、その楽器を用いて演奏しているプレイヤーに
とっては、「思っていることを音響に反映させる」という点で自然楽器と電子楽器
は大きく異なります。その音楽の演奏のために、たとえば「もっと強く」「もっと
明るく」「もっと粘っこく」などというニュアンスを表現しようと楽器を
コントロールしようとして、できないものがあれば、それは全て演奏者にとって
フラストレーションとして蓄積されてしまうのです。

 かつてのアナログシンセのVCFのカットオフとレゾナンスというパラメータが
広く受け入れられたのは、これが人間の「声」の制御モデルと類似していて、
感覚的に自然だったからです。ところがPCM音源の時代になると、確かにスピーカー
から出て来る音は本物に似ている(録音しているのですから当然(^_^;))のですが、
この電子楽器をいざ「演奏」してみると、いつも同じ音しか鳴らない、という
欲求不満に悩まされます。最近の物理モデルシンセが受け入れられたのは、
この点がかなり改善されているからなのでしょう。しかし、これでも楽器の
モデルの一部のパラメータがコントロールできるようになった、という程度の
ものであり、私は最近では物理モデルシンセの「聞くだけでわかる音」に飽きて
きてしまいました。かつての「DX-7サウンド」と同じで、最初はユニークでも、
どこでも同じ音が鳴っているというのは、ちょっといただけません。もちろん
自然楽器、たとえばバイオリンの音はずっと昔からバイオリンなのですが、
バイオリンの奏法は時代とともにまだ発展途上で、楽器がいろいろなアプローチ
にちゃんと応えてくれているのです。ところが物理モデルシンセでは、メーカ
の提供する限られたパラメータしか制御できないために、結果として「どこでも
同じ音がする」という域を出ていないように思います。

●「新しい」電子楽器

 このように、電子楽器は「自然楽器を真似る」というアプローチでは、
どうしてもアンプとスピーカーという足かせがあり、前途は多難です。(^_^;)
ところで、これとは別に、「まったく新しい楽器」を目指す、という可能性
があります。かつての「テルミン」「オンドマルトノ」「ハモンドオルガン」
「フェンダーローズ」「ミニムーグ」「DX-7」に続く、自然楽器にはない独自の
新しい電子楽器、というものに期待したいと思っています。
世界中のComputer Musicの研究者の中には、まさにこの分野で色々とアヤシゲな
「楽器」の製作に没頭している人も少なくありません。そしてたいていの場合、
それは「自分で演奏したいから」「自分の音楽に必要だから」という動機と直結
していて、明快です。

 この意味では、ヤマハのMIBURIはなかなか画期的なものでしょう。音源として
物理モデルシンセを使っているのも、「手首・ひじ・肩の曲げ」センサという
従来とは異なる新しいコントロールには向いています。ただし私の感想としては、
せっかくのユニークなアイデアが、「ドレミ....」の音階を入力する、という
あまりに伝統的なシステムに抑え込まれているのが残念で仕方ありません。
私は既にMIBURIを作品に用いて発表していますし、現在もMIBURIを使った
新作を作曲中(7月13-14日の神戸ジーベックホールでのコンサートで初演)です。
しかし、ここではMIBURIのセンサ部分だけを切り離し(^_^;)、オリジナル製作
のMIDIコントローラへの単なるセンサとして利用されていて、本体はまったく
使いません。楽器として新しい可能性を持っているというのに、まるで「ヤマハ
音楽教室」のような使い方をするというのは、どこかチグハグだと思います。

 MIBURIと似ている楽器に、BIOMUSEというものがあります。MIBURIが30万円ほど
するのに対して、BIOMUSEはさらに一桁ほど高い(^_^;)のが難点ですが、こちらも
演奏のスタイルはほとんど同じような外見となります。1993年のICMC(東京)の
「研究発表セッション」でBIOMUSEの発表をしたタナカ・アタウ氏(スタンフォード
大/IRCAM)は、翌年1994年のICMC(デンマーク)では、「世界でただ一人の
BIOMUSE演奏家」として、コンサートセッションで自分で作曲した作品を演奏
して絶賛されました。鍛えられた上半身裸のいでたちで現れたアタウ氏の両腕
には、「筋電位センサ」のバンドが巻かれています。筋肉の緊張状態をセンシング
してMIDI出力し、MAXで処理されて自作の物理モデル/FM音源をコントロール
するその「演奏」は、まさに見るものが「手に汗握る」ものとなりました。
ちょうど、歌舞伎の「見栄を切る」ような動作がそのまま音響をリアルに
制御し、演奏者の気迫と緊張がそのまま音響に反映されて、まさに新しい楽器、
「音楽演奏の道具」として、見事に演奏者と一体となっていたのです。

 このように、電子楽器の課題というのは、この連載では後に検討する予定の
「センサ」「ヒューマンインターフェース」とも密接に関係していますが、
今回はこのぐらいにしておきましょう。

●楽音合成 (Sound Synthesis)

 さて、そういうわけで電子楽器のいわゆる「音源」の話になります。本誌の
読者の皆さんであれば、「加算方式(サイン合成)」「減算方式(VCF)」
「FM方式」「PCM方式」などという分類もご存じだと思いますので、ここでは
繰り返しません。私が楽音合成の分類や研究状況に関してこれまでに書いたもの
には、

・調査報告書「音楽情報処理の技術的基盤」『平成4年度 文部省科学研究費 総合
 研究(B)音楽情報科学に関する総合的研究』(1993年3月)

・情報処理学会誌「特集・音楽情報処理:音素材の生成」(1994年9月号)

などがあります。いずれも主な大学の図書館などにあると思いますし、実は
私のホームページ            の中に原稿を
そのまま置いています(^_^;)ので、興味のある方はご覧ください。参考文献など
もリストしています。また、古くて新しい「ヘンな」(^_^;)音源方式である
Granular Synthesisについても、私が学会発表したOHPシート代わりのHTML原稿
そのものを置いていますので、こちらも参照してみて下さい。

 ところで、世界のComputer Music研究者にとって、音楽の素材となる
「音」そのものを作る、という楽音合成というのは基幹となるテーマですから、
現在でも多くのアプローチが続いています。スタンフォード大のChowning博士
が研究して開発したFM方式をヤマハが買い取って製品化したように、一般に
楽器メーカがユニークな楽音合成方式を研究開発するというよりは、研究者の
ほうが現実の製品よりもだいぶ先を行っている、というのは、ここ20-30年の
真実です。そして、従来ではメーカでなければ実際に使えるレベルとして実現
できなかったのに対して、Computerの進歩はこの状況を逆転させるようになって
きました。

 つまり、これまでは楽器メーカが作った「音源LSI」とか「DSP」という特殊な
ハードウェアがないと、なかなか楽音合成のような高度なことはできなかったの
ですが、最近のコンピュータの能力向上で、これがソフトウェア的に可能となった
のです。GSとかGM音源のマルチティンバーのSMFデータが、最近ではMIDI音源の
ないパソコンでも簡単に演奏できますが、これが「シンセサイズ」の領域にまで
拡大されるのは時間の問題なのです。既にSGI社のワークステーションでは
MAXの「オブジェクト」に相当する信号処理モジュールが多数動いていますし、
C言語でわざわざ楽音合成アルゴリズムを書かなくても、簡単に楽音合成の実験
ができる時代となってきたのです。もちろん、同時発音数などの制限はある
のですが、モノフォニックの高価な物理モデルシンセが楽器メーカの用意した
範囲の自由度しかないのに対して、ソフトウェアシンセの自由度は無限の可能性
を持つのですから、サンプラーあるいはHDレコーダと組み合わせることで、今後
の新しい「電子楽器」となるのは間違いないと思います。

●信号処理 (Signal Processing)

 前述の楽音合成は「音源」の部分ですが、広い意味の電子楽器にとって、
より音楽表現の可能性を広げているのが、「音響信号処理」の領域です。
いわゆるエフェクタというのは誰でも使っているのですが、Computer Music
の研究者は、もっとヘンな(^_^;)、色々な音響効果を求めて、日夜、新しい
手法を実験しています。

 ICMCなどの場でComputer Music作品の最近の傾向を見てみると、音源そのもの
の部分は、演奏する人間との接点のところでセンサとか楽音合成の壁があるため
に、むしろ「生楽器の音響にコンピュータでリアルタイム処理」という手法
がよく見られています。ここには、市販のエフェクタを多数駆使して、MIDIで
パラメータを制御するものも含まれますが、より広い自由度を求めて、DSP
の部分までコンピュータ側にもって来る、というアプローチが多いのです。
私も実際にUnix上で信号処理のプログラミングをしていて、それが作品の一部
となっていますが、この話題はNIFTYの会議室でときどき盛り上がっています
ので、興味のある方はそちらで質問して下さい。

●MIDIとZIPI

 さて、電子楽器について語る上では、どうしてもMIDIを避けるわけには
いきません。しかし本誌はもともとMIDIの上に成り立っていますし、ここで
今更、MIDIについて解説する必要もないでしょう。そこで、MIDIの限界から
色々と提案されている「ポストMIDI」の中で、最近になって多くの研究者が
注目している「ZIPI」について、簡単に紹介しておきます。

 ZIPIとは、point-to-pointのMIDIに対してネットワークを意識した高速の
インターフェースで、音楽情報をパケットとして送る仕様になっています。
メッセージ(音楽情報)は、今はやりのインターネットのHTMLと同じような
「標準の記述言語」を意識しているようで、たとえばMIDIではできなかった
「ノートごとのベンド」(ギターのチョーキングのイメージ?)なども
自在にできるようになっています。
 詳しい情報はComputer Music Journalなど色々なところに載っています
(→コラム参照)ので、ここではSPECを詳しく述べることはしませんが、
ZIPIがそのままスタンダードになるかどうかは別として、このような動きがある
ことは注目しておきましょう。

 ただし、ZIPIなどの登場によってMIDIがなくなるか、というと、それは別の
問題です。私の印象では、たぶんMIDIは今後も「一つの標準」としてなくならない
と思います。というのも、Computer Musicの専門家などのように「MIDIでは
必要な情報が送れないので新しい規格を作る」というのはごく一部の要請で
あって、通常のポップスとかクラシックの音楽演奏という程度の場合、MIDIで
なんとか間に合っている、という現状があります。カラオケBGMのボイス数は
GSやGMを軽く越えて96ボイスとか128ボイス、と際限がありませんが、情報の
転送規格としてはMIDI程度で「なんとかなっている」、という経済的な状況も
重要なのでしょう。実際、ZIPIを使うとなると、電子楽器にしてもシーケンサの
コンピュータにしても、イーサネットポートをかなり真面目に叩く、という
ぐらいの処理能力が必要となりますから、コスト的になかなか見合わない
ところもあります。将来は、「実用本意のMIDI、音楽的なZIPI」などという
棲み分けができていくのかもしれません。

(コラム)
====
This article originally appeared in Electronic Musician magazine's
March 1995 edition. Electronic Musician is published by Cardinal
Business Media at 6400 Hollis St. Suite 12, Emeryville, CA 94608 USA.
====
Electronic Musician (95年3月号) Tech Page (pp.146) より

	MIDI をこえる新しい制御ネットワーク: ZIPI 
	(Zippity Doo-Dah)
				by Scott Wilkinson	(訳:増井誠生)

  MIDI はもともと鍵盤楽器のために設計されたものだが、多くの異なる楽器
にあわせて適用されてきた。不幸なことに、これらの楽器の一部は MIDI では
うまく動作しない。例えば、ギター型コントローラーは極めて大量の MIDI デー
タをつくりだし、簡単に MIDI の 31.25 kbps のバンド幅をあふれさせてしま
う。それに加えて、各音のタイミング、ピッチ、初期ラウドネス(ヴェロシティ)
が、ガチガチに一体化した形式である。鍵盤楽器であればこれでも構わないが、
これらのパラメータがもともと分離している楽器の場合はどうだろう? さら
に、チャンネル・ボイス・メッセージの問題もある。ノート・オン、ノート・
オフ、ポリフォニック・プレッシャーを除き、チャンネル・ボイス・メッセー
ジは、あるチャンネルの全ての音に同様に働いてしまう。例えば、ある音に対
してピッチベンドをかけると、普通は、同じチャンネルの別の音にも同様なピッ
チベンドがかかるものだが、楽器の中には、少し違ったピッチベンドのかかり
かたをするものがある。

  こういった制限があるため、ゼータ・ミュージック・システムとギブソンの 
G-WIZ (西部イノべーション・ゾーン)、カリフォルニア大学バークレー校の 
CNMAT (新音楽音響技術センター) は共同で、電子楽器のための新しいネット
ワーク: ZIPI を開発した。このネットワークでは、最大 253 個のデバイスに
対応可能で、各デバイスは7ピンの DIN コネクタを持ち、1本のケーブルで、
ZIPI のデータ信号とクロック信号をデバイス間で双方向に送ることができる。

  何個かの ZIPI デバイスが、1個の中央ハブに接続される。ハブ同士の多重
接続も簡単に行なえ、各ケーブルは最大 300 メートルまで OK である。もし
1個のデバイスが故障しても、他のデバイスはひとつのネットワークとして動
作可能である。論理的には、デバイスはトークン・リングを形成する。ある時
刻にトークンを持つデバイスだけが、他のデバイスにメッセージを送ることが
できるので、これによってメッセージの伝送に割り込みが入らないことが保証
される。

# 図1 (ZIPI デバイスはハブによって星型接続されているが、実際にはトー
# クン・リングとして機能し、あるデバイスが故障しても動作し続ける)

  バンド幅は、完全に可変で、上限は存在しない。最低は 250 kbps であり、
現在利用できるハードウェアでは 最大 20 Mbps までが許される。ネットワー
ク上の全てのデバイスが扱える最大限の速度に自動調整される。

  ZIPI の音階層には3レベルがある。それはノート(音)、インスツルメント
(楽器)、ファミリー(楽器族)である。最大 63 ファミリーが存在でき、各ファ
ミリーには最大 127 個のインスツルメントが含まれ、さらに各インスツルメ
ントは最大 127 種類のノートを発音できる。それぞれのノート、インスツル
メント、ファミリーは、ユニークな識別子、すなわち「アドレス」を持つ。ノー
トについては、そのアドレスは、ピッチ(音高)や他の属性とは完全に独立して
いる。(MIDI の場合は、ノートのピッチがすなわちアドレスである) これによっ
て、あるノートに対する、ピッチやボリューム、パンなどを他の属性とは独立
に変化させることができる。また、インスツルメントやファミリーに対してメッ
セージを送ることで、あるグループに属するノートに対して、まとめて影響を
与えることもできる。

  メッセージは音楽パラメータ記述言語(MPDL)として符号化される。メッセー
ジの中で、ノート・デスクリプタ(ノート記述子)に相当するデータ列の数字が、
特定のノートに対してどのように効果を与えるかを示す。定義済みのデスクリ
プタは沢山あり、アーティキュレーション(調音)、ピッチ(音高)、ラウドネス
(音の大きさ)、ブライトネス(音の明るさ)、インハーモニシティ(非調和性)、
パンの左右/上下/前後、プログラム・チェンジ・イミディエート(*) (発音
中のノートにもプログラム・チェンジを行なう)、プログラム・チェンジ・
フューチャー(*) (発音中のノートには、プログラム・チェンジを行なわない) 
などがある。将来的な拡張のために、未定義のメッセージも沢山残されている。

# 訳注:(*) Computer Music Journal (Winter'94) 所収の ZIPI の論文では 
# "Program Change Immediately", "Program Change Future Notes" とある。

  MPDL では多くのコントローラー・メッセージが用意されている。その中に
はヴェロシティ(打鍵速度)、スイッチや連続的なペダル、ピックや弓のヴェロ
シティ(打弦/擦弦速度)・ポジション(打弦/擦弦位置)・プレッシャー(打弦/
擦弦押圧)、フレットやフィンガーボード上の位置と押圧、菅楽器の空気流量、
唇の圧力と周波数(金菅楽器の唇の振動)、ドラムヘッド上のポジション(打位
置) などがある。これによって、極めて自由にコントローラを設計し、作成す
ることができる。

  G-WIZ は ZIPI デバイスの研究も行なっている。例えば Infinity Box では、
(ギターなどからの)6系統のアナログ入力を受け付け、FFT 解析を行ない、演
奏情報を ZIPI のピッチや音色メッセージにリアルタイム変換する。オーバー
ハイムの FAR 技術 (EM の 95年2月号の"技術ページ"を参照) に基づく ZIPI 
音源モジュールも製作中である。これらの開発によって、電子音楽は 21 世紀
に向かって発展するだろう。

=====
この元記事は Electronic Musician 誌の1995年3月号に掲載されたものです。
この訳文は非営利目的に限りネットワーク上での転載を認めます。転載希望者
はあらかじめ訳者(masui@flab.fujitsu.co.jp)に連絡を取り了承を得て下さい。
営利出版物への無断転載は固くお断りします。なお、翻訳に際し田中共和さん
(tomokazu@roland.co.jp)より貴重なアドバイスを頂きました。(Mar.17,'95)
=====

第6話 コンピュータとセッション演奏する

 今回は、Computer Musicの一つの重要なテーマである「人間との共演」について、
世界中のいくつかの研究の現状を紹介して、その課題を検討してみたいと思います。
コンピュータと人間とが共演する、というのは、たとえばカラオケなどの伴奏も
一つの形態ですが、ここではもう少し、実現しようとしてみるとタイヘンな色々な
研究について考えていくことになります。

●古き時代のComputer Musicスタイル

 Computer Musicの歴史は、かつて現代音楽で「テープ音楽」として行われたような
電子音響の生成から始まりました。しかしこれは、大型計算機で非リアルタイム的
に音響データを演算処理して、最後にこのデータをD/A変換してテープにするために、
コンサート会場は皆んなが黙ってスピーカからの音響を聴く、というかなり暗いもの
でした。そして、音楽であるからには演奏家の生演奏が欲しい、という要請を受けて
「Computerで作ったテープ音楽を伴奏に、生演奏家がアコースティック楽器を演奏」
というスタイルが生まれ、大流行しました。これは現在でも、Computer Musicコン
サートの一つの主流となっているスタイルです。

 しかし、このスタイルはいわばカラオケで口パクしている歌手と本質的に同じです
から、演奏家は何度もテープを聴いて、楽譜にキューの合図を書き込んで、いわば
「何度やっても同じように」という練習を必要とします。演奏家がテープ音楽の
BGMを完全に消化した上で自分の演奏を聴かせるような芸術的水準まで到達していれば
いいのですが、「伴奏に合わせて必死についていく」というような演奏となって
しまう危険性もあり、このような悲惨なPerformanceも少なくありませんでした。
これはMIDIシーケンサで伴奏をさせるカラオケと同じようなタイプの音楽です。

●リアルタイム採譜とパターンマッチング

 さて、ここにComputerをより積極的に活用するために必要な技術は、というと、
「リアルタイム性の強化」ということに尽きます。古典的な「非・実時間処理」で
あれば簡単なのですが、音楽を演奏している、まさにその最中に伴奏とか協奏の
処理を行うのは、かなり厳しいコンピュータ技術なのです。具体的には、おもに
「独奏」パートを担当している生身の人間の演奏を、コンピュータが処理できる
ような情報として取り込む、という「採譜」Transcription(第4話の話題)を
リアルタイムに行う必要があります。人間がMIDIキーボードやMIDIギターなど、
MIDI情報を出してくれる楽器を演奏しているのであればまだ簡単なのですが、
これが生ピアノやフルート、あるいは声楽などの音響信号としてしか入力
できない場合には、「リアルタイムのピッチ抽出・メロディー検出」という
かなりの難問にまず直面することになります。

 そして、人間の独奏者の演奏情報がリアルタイムに自動採譜された、と仮定
しても、次にこの演奏情報と「楽譜」に相当する音楽情報とをリアルタイムに
照合して、「いま、どこを演奏しているのか」を刻々と検出しなければなり
ません。いわば、リアルタイムのパターン認識問題というわけです。ここでは、
楽譜に独奏者のメロディーのデータが記述されていて、演奏者の情報をこれと
比較していく、というのがもっとも単純な考え方ですが、人間の独奏者の演奏
には色々なノイズがある、というのがクセ者なのです。例えば、あるメロディー
の順に並んだ音に対して、演奏者のミスタッチで別の音が入ってしまった、
あるいは特定の音をとばして進んでしまった、あるいは楽譜では1つの音なのに
2回叩いてしまった、などという場合、「正解が来るまで待つ」などという
アルゴリズムであれば、すぐに音楽演奏が停止してしまうことになります。
人間は多少のミスがあっても音楽の流れを優先して「弾き直し」しない事が
多いですし、場合によっては演奏をやめてしばらく伴奏を聴いてから、あとで
合流してくることもあります。このようなパターンマッチングというのは、
いざプログラムしようとすれば判りますが、なかなかに大変なものなのです。

●指揮システム:ビート追従とテンポ変化への追従

 このようにコンピュータが独奏者のメロディーを認識して伴奏するのは大変
なので、Computer Musicの研究の世界では、もっとターゲットを絞った研究と
して「指揮者のテンポ・音量などの指示に追従する」というシステムが研究
されてきました。この場合、演奏情報としてはMIDIシーケンサにすでに全ての
音楽演奏情報が確定していますから、いわば「シーケンサのテンポを変える」
ということで簡単に実現できるのです。MIDIの言葉で言えば、シーケンサの
クロックを外部からの[F8]で進めるようにしておいて、この[F8]を送り出す
コンピュータが、なんらかの「指揮センサ」から制御されればいいことになり
ます。

 日本では、早稲田大学の橋本研究室(もと大照研)が、赤外線LEDを先端に
付けた指揮棒をCCDカメラで画像認識して、打点の軌跡の運動から加速度変化
を検出して、オーケストラ演奏を指揮しました。ここでは指揮者は左手に
データグローブをはめて、手の形態や移動でパートボリュームの指示や全体
の音量も制御しました。また大阪大学の井口研究室では、Two Finger Piano
というシステムでシーケンス演奏のテンポと音量を制御したり、この入力に
ジャイロセンサを使った指揮棒を使って、同様のコントロールを実現しています。

 このようなテーマは、もうだいぶ枯れてきているのかというと、決してまだ
終わったものではありません。研究テーマとしてまだ解決していない重要な
問題として、「内的テンポのモデル」あるいは「テンポ追従のモデル」とでも
言うべき課題があり、筆者の印象では「本当に音楽的に納得できる指揮システム
は、まだどこでも開発されていない」と思っています。つまり、いまシーケンサ
の演奏がちょっと遅い、と指揮者が感じたとして、指揮者は「加速」を指示
したいとします。すると、オーケストラの団員であれば「あうんの呼吸」で
自然に指揮に追従して加速してくれるのに、どうもコンピュータのシステムでは
ギクシャクする、などというような現象がほとんどなのです。ここには、指揮者
の指示をどうとらえて処理するか、シーケンサ内部にどのような「テンポの
変化のモデル(短期的・長期的など複数の階層は絶対に必要)」を用意するか、
などの問題が山積しているのです。

 本誌の読者の皆さんであれば、MIDIシーケンスデータでたとえば「ロマン派の
叙情的な曲をいかに自然にテンポルバートさせるか」というノウハウを体験的に
知っていることでしょう。ところが、これを非実時間的に何度も何度も繰り返して
修正していくのでなく、たった1回のシーケンサ再生の途中でリアルタイムに
納得できるようなテンポ変化への追従をさせる、となると大変なことなのです。
興味のある皆さんは、ぜひ挑戦してみてはいかがでしょうか。

●音痴を補正するカラオケ伴奏システム

 指揮システムの延長線にある「知的自動伴奏システム」の応用として、一部
では市販されているものに、「補正カラオケ」があります。これは、歌う人の
マイク音響入力をリアルタイムに追跡して、「テンポがずれたら伴奏のテンポを
変えて追従する」「ピッチがずれたら伴奏のキーを変えて追従する」という、
なかなか強引な(^_^;)ものです。

 MIDIシーケンスデータであれば、テンポを変えてピッチを変えない、あるいは
ピッチ(キー)を移動させてもテンポを変えない、というのは得意ですから、
これは技術的にはかなり近いところにあります。また、最近のDSP技術を利用
して、音痴な歌い手のメロディーを、音響信号そのものをピッチチェンジして
正しいメロディーにしてしまおう、という研究も行われています。こうなると、
どんな人でも「正解」を歌えることになるのでしょうか。(^_^;)

●ニューロドラマーとニューロミュージシャン

 さて、伴奏からちょっと進んで、人間のミュージシャンとのセッションを行う
システムについて紹介しましょう。音情研の仲間で一緒にICMC東京の裏方もした、
現在はアメリカに行っている富士通研究所の西嶋さんの「ニューロドラマー」
はあまりにも有名です。これはMIDIドラムパッドを演奏する生身のドラマーと
セッションするコンピュータのドラマー(MIDIドラムマシンを鳴らす)で、
具体的には2小節ずつ交互に、というスタイルで人間のドラマーと共演します。

 まずニューラルネットワークに音楽演奏情報を学習させるために、「2小節が
こう来たら、2小節をこう返す」というパターンを、30種類ほど人間のドラマー
に叩いてもらいます。システムはこの音楽演奏情報をニューラルネットワーク
に学習させて、内部の「重み付け」のパラメータを調整します。そしてセッション
の段階になると、前半2小節を人間のドラマーが叩いて、コンピュータはこの入力
情報をニューラルネットに与えて、その出力情報から2小節のドラム演奏を行う、
というものです。ポイントは、ドラマーの与える2小節の最後の16分音符の時間
だけは入力を無視して、この間にコンピュータが特急で情報処理を行う、という
テクニックで、音楽としてはこれで十分に途切れない「演奏」を実現しました。

 2小節とはいえ、ドラミングのパターンというのは学習させた30種類などとは
比べものにならないほどたくさんありますから、事実上はドラマーの与える
リズムパターンは、ほとんどニューロドラマーにとって「未経験」のものです。
ところが、ニューラルネットのいいところ(^_^;)で、とにかく「何かを生成」
してくれるのですが、これがなかなか人間のドラマーを音楽的に挑発するのです。
「こう叩いたらやっぱりそう返してきたか」という段階から、やがて「そう返して
きたか、ではこれならどうだ」、さらに「おぉ! そう来るか、ではこれなら
どうだ(^_^;)」...と、30-40パターンを学習(パソコンで一晩かかります)した
コンピュータがプロのドラマーを夢中にさせた、というなかなか面白い研究でした。

 西嶋さんはその後、ニューロベーシスト、ニューロピアニストと組み合わせた
セッションにまで進めたのですが、やはりリズムだけでなくメロディーやコード
の概念が入ってくると、「中身はブラックボックスで理屈はいらない」という
ニューラルネットワークの限界がそのまま露呈してしまったようです。この先の
段階になれば、やはり音楽理論や音楽認知・音楽解釈モデルが必要になるの
でしょう。

●感性情報モデルによるセッションシステム

 大阪大学の井口研究室では、「音楽感性情報処理」というキーワードで、
知的な自動伴奏やセッションシステムを研究しています。これまでに、独奏者
のピアノ演奏の「一定時間に弾く音数」「音域の広さと移動」「ベロシティ」
などの多数のパラメータから、「盛り上がっている」「落ち着いてきた」等の
感性パラメータを抽出して、伴奏にフィルインを入れたり、クレシェンドや
ディミヌエンドに追従するところまで実現してきました。このシステムでは、
人間の独奏者があまり単調なことをしていると、イラついて「なんかしろ」と
煽ってきたり、しばらく独奏者が何もしないと、勝手にエンディングで終わって
しまう(^_^;)ようにもなっています。

 このようなアプローチは、日本の音楽情報科学研究者のコミュニティでは
かなりそれぞれの研究が進んでいます。千葉大の堀内さん、早稲田大の後藤
さん、早稲田大の橋本研究室、そして阪大の井口グループなどが、それぞれ
「伴奏型」から「セッション型」へとシステムを進化させようとしています。
また、これまでになかった新しい動きとして、これら若い研究者たちが
「勉強会」をしたり、さらに共通のテーマ曲に対して「どのシステムが一番
音楽的で自然に追従するか」という、いわばベンチマークテスト(^_^;)の
ようなアプローチを検討しています。今後もますます注目したい研究分野です。

●リハーサルの必要性

 さて、自動伴奏システムでも自動セッションシステムでも、多くの研究から
わかってきた重要なポイントを一つ、紹介しておきましょう。それは、実際に
リアルタイム演奏を行うのは本番ただ一度だけ(コンサート本番みたいな
ものでしょう)、としても、事前に行うリハーサルがきわめて重要だ、と
いう示唆的な事実です。

 たとえば早稲田大の指揮システムの場合、ある程度の指揮法をマスターして
いる人と、まったく指揮したことがない素人とでは、入力される軌跡がかなり
異なります。そこで、まず「なるべく均一に、等間隔な打点を振ってください」
というリハーサルを行います。ここで軌跡がバラついている場合には、システム
は素人指揮者だとパラメータを調整して、少しぐらいの変動はノイズとして
無視します。ところが均一な軌跡の場合には、指揮法に慣れている人と解釈して、
細かな指揮の変動に対してかなり敏感に追従するようにするのです。

 これは他の研究の自動伴奏システムでもセッションシステムでも同様で、
あくまで標準的に用意している音楽モデルに対して、人間の演奏者の持っている
「個性」をパラメータ化して取り込み、これに対応したリアクションを返す
ことで、人間の演奏家はかなりストレスの少ないセッションに臨めるのです。

●協調セッションシステムと即興性

 さて、このようなComputer Musicの研究の延長には、より野心的なテーマが
あります。人間の演奏家と一緒に共演して、演奏家を音楽的に興奮させるぐらい
までシステムをうまくチューニングできたとしたら、このようなシステムを
複数並べて相互に情報交換させることで、なにか面白い「自動セッション」が
できないでしょうか。実は筆者も、このテーマは長期的な「夢」としていろいろ
考えているものなのです。

 海外では、ジャズ演奏家でもありComputer Music研究者でもあるジョージ・
ルイス氏のシステムが有名です。ここではルイス氏はトロンボーンを演奏する
一人のフリージャズ演奏家ですが、一緒にセッションするシステムが強烈です。
コンピュータ内には複数のパートのジャズメンがプログラムされていますが、
そのそれぞれの音楽的な個性を、ジャズの専門家のルイス氏が組み込んでいる
のです。「他が盛り上がって来ると一緒に参加する」というだけでなく、ある
者は「他が騒ぐとひねくれて沈黙する」ようになっています。全員がお互いに
聞き合うことで次第に静かになってくる、という流れの中で、突然に派手に
目立とうとする者もいます。その全体が、スタートボタンから「シーケンスの
再生でない自動作曲」としてなんとなくセッション演奏を初めて、いろいろな
やりとりや盛り上がり、フェイク、ブレイクなどもあり、やがて最後はなんと
なくエンディングに収束していきます。

 ここでは、規範となる「シーケンスデータ」というよりも、音楽的なアドリブ
のためのルールを記述する、ということになります。これは筆者の当面のテーマ
の「アルゴリズム作曲」そのものであり、重要なテーマは「即興」ということ
なのです。メイリングリストで議論したいのも、このあたりです。(^_^)
(このテーマについては、また次回でも考えてみたいと思っています。)

第7話 コンピュータに音楽を創造させる

 「作曲」というのは音楽創造の永遠の課題です。今回はComputer Musicの世界で
一つの中心となっている「アルゴリズム作曲」という考え方を、"MAX"とともに
紹介します。そして、私が最近こだわっている「カオス音楽」と、マルチメディア
作品への応用について紹介します。第1話で予告していた「パフォーマンスと
Improvisation」というテーマについては、紙面の都合で別のところで検討します。

●シーケンス作曲とアルゴリズム作曲

 作曲のスタイルには色々なものがありますが、Computer Musicの世界では代表的
なスタイルは大きく2種類に分類されます。その第一は、「あらかじめ演奏される
音楽が作曲されている」というもので、DTMで一般的になっているMIDIシーケンサ
の自動演奏はこの典型的なものです。ただし、このようにカラオケ的に完全に演奏
情報が確定しているといっても、実際には

 ・乱数をもとにして、ここに音楽的ルールを適用して音を選んで記述する

 ・細かい音響断片を手作業で切り貼りしてサウンドを作る
    (かつてテープを切り貼りした「電子音楽」の時代の手法)

 ・ある作曲家の音楽的特徴データベースを元に人工知能技術によって自動作曲する

 ・複数のメロディーをモーフィングして新しいメロディーを自動生成する

など、さまざまな形態があり、研究者や音楽家によって、今後も新しい手法が
試みられていくと思われます。筆者も、「人間のパフォーマンスによって自由に
曲のあちこちの部分にジャンプする」「人間の演奏者がコマンドを与えるまで
待つ」などの仕組みを取入れながら、このスタイルも作曲に利用しています。

 これに対して、「演奏される音楽情報そのものは記述せず、音楽を生成していく
アルゴリズムを記述することが作曲である」というスタイルがあります。生成
する機構は関数でも知識記述言語でもなんでもいいのですが、要するに、「音楽
を生成するルール」という枠組みを創り上げる部分が作曲であり、実際に演奏
される音楽情報はその場にならないとわからない、という一種のメタ作曲のような
発想です。演奏の場では「お釈迦様の掌(てのひら)」の上で音楽が自動生成され、
作曲家はお釈迦様になって、具体的な音については勝手に走らせる、という傲慢
といえば傲慢な(^_^;)考え方ですが、音楽において「宇宙を支配する」という
西洋的な発想にとっては、まあまあ自然なことのようです。

 この場合、固定したアルゴリズムに従った音楽の生成は実質的にはシーケンス
音楽と変わらないように思えますが、実際には

 ・乱数を導入して「偶然性」を積極的に採する

 ・ライブ演奏時に人間の働きかけを与える

などの手法で、「演奏するたびに違った音楽になる」「まったく同じ演奏は二度
とない」という、いわゆる「リアルタイム作曲」の思想を明確しているところが
特徴です。このような、音楽の演奏に対してその場でリアルタイムに処理を行う
というのはかなり高度なコンピュータ技術ですから、実際にComputer Music作品
として目立ってきたのは、ここ数年のことです。

●MAX

 フランス国立のコンピュータ音楽の研究機関IRCAMが開発したソフトウェア"MAX"
は、Computer Musicの専門家や研究者ばかりでなく、現在では世界中の音楽愛好家
が利用しているMacintosh上の「環境」です。既に、北村祐子さんの「サイバー・
キッチン・ミュージック」や、ノイマンピアノの「マジカルMAXツアー」などの
「MAX本」が出ていますから、詳しいことはそちらを読んで下さい。(^_^)

 MAX以前の時代には、Computer Musicの専門家はたとえ音楽家であっても、自分
でC言語やアセンブラ言語によって必要な処理を行うためのプログラムを開発する
ことからスタートしなければなりませんでした。ところが、MAXの優れたGUI機能に
よって、音楽家でも容易に複雑なアルゴリズムを記述できるようになりました。
MAXは現在では、MIDI情報だけでなくMacのグラフィクス機能やサウンド機能をMIDI
と同等の素材として利用できるようになっていて、例えばステージのライティング
制御や、映像編集機器の制御などにも広く利用されています。

 図1は筆者の製作した「MIDIパワーグローブ」(バッタ屋で598円で入手した、
ファミコン用パワーグローブを改造)の情報を利用するためのMAXパッチの例です。
MAXでは、あるアルゴリズムに従う一連の処理をパッチと呼びますが、これは
一般のプログラムとかルーチンと呼ばれるものと同等です。「パワーグローブ」
を改造してマイコンと無線送信機を内蔵したこのセンサからの情報は、特別に定義
されたMIDI情報としてMAXに取り込まれます。図1上は、典型的なMAXパッチの外観
です。このように、従来はプログラミング言語で記述していたアルゴリズムが、
箱に名前の入った「オブジェクト」を多数並べて機能を分割すること、この箱と
箱を線で結ぶことで機能を結合すること、という単純な形式で処理できるように
なったわけです。図の中央の5本のスライダーは「グローブの指の状態」を表示
するためのディスプレイ・オブジェクトですが、このスライダーをマウスで上下
させれば逆にその値を出力することもできます。

 図1下は、このパッチを「実行モード」から「編集モード」に切り替えたところ
です。画面上端に各種のオブジェクト候補が並んでおり、ここから必要な部品と
していくつでも呼び出して配置するようになっています。画面の左上端にある
「midiin」というオブジェクトが、Macに入力された全てのMIDI情報を供給し、
ここではパワーグローブの情報として定義された特定の情報にヒットした時にだけ、
それ以降の処理がトリガされる、もっとも簡単なパターン認識となっています。
情報は4本の指それぞれにON/OFFを対応させた4ビット2進数データとして与えられる
ので、図のような数学的処理によって「どの指が曲がっている」という情報を抽出し、
このパッチではそれぞれの指に割り当てられたノートのMIDIノートオン情報として、
最終的には「noteout」オブジェクトからMIDI出力されています。

 画面右側の2つのボタンは、それぞれの指に割り当てるノートのセットを切り
替えるトリガとなっています。つまり、上のボタンを押してグローブを握ると
Cmaj7の和音のアルペジオ演奏が、下のボタンにするとC#m7の和音のアルペジオ
にります。このような仕組みは何十種類でも簡単に編集できるために、瞬時に
してチューニングやスケールの変更できる新しい楽器、というものがMAXでは
簡単に実現できてしまいます。

●カオスジェネレータによる生成系

 カオス現象とは、基本的に「非線形」「回帰的」「反復的」な系において一般的に
現れるもので、特にコンピュータ上ではここに「離散的」という条件が加わります。
(ここではあまり数学の話をしたくないので(^_^;)、ざっと紹介しますから、軽く
読み流していただいて結構です。)

 本来アナログ的である自然現象におけるカオス性を検証する場合には、必要な精度
にまで離散化・量子化することで、実際にはディジタル的に処理することになり
ます。音楽情報処理の視点から見ると、カオス現象のシミュレーション離散化単位に
相当する時間軸上の単位としては、「音響信号のサンプリング時間」「シーケンス
データのタイムベース」「リズムを構成する最小ビート」「8分音符」「4分音符」
「小節」「1コーラス」「楽章」など、さまざまな階層が用いられます。

 もっともポピュラーで基本的な、しかしカオスを考える上で十分な深みを
持っているのが、「1次元Logistic関数」(メイの漸化式)という数値演算の
繰り返しによるカオスです。これは式で書けば、ゼロから1までの実数値を
とる X(n) という変数(nは繰り返し計算のn回目ということ)に対して、
3.0から4.0までの範囲のパラメータμをとって、

     X(n+1) = μ * X(n) * (1 - X(n))

という単純な計算を続ける、というものです。電卓でもBASICでもちょっと調べて
みるとわかりますが、この計算の結果のX(n+1)は必ずゼロから1の間に来ます
から、無限に繰り返しても発散することはありません。ということは、初期値
X(0)が与えられれば、n回目の繰り返し演算結果は「確定」していることになり
ます。ところが面白いことに、μの値が3.6あたりよりも大きい場合には、
「確定しているけれど、わからない」状況になるのです。これが、いわゆる
「カオス状態」になる領域です。

 図2は、このカオス生成系をMAXで構成した一例です。この図では、左上の四角形の
スイッチをクリックすると、メトロノームのオブジェクトが一定間隔でトリガ生成を
開始します。図では200という値が入力されているので、200msec、すなわち1秒間に
5回のリズムです。図の中央上部に並んでいるのが、初期設定のための定数です。
図の「3.8」はパラメータμで、これがもっとも重要なパラメータとなります。
図のようなLogistic関数の演算結果は、初期値0.5だった変数ボックスに格納され、
さらにノートナンバに変換するために2オクターブの音域である24と乗算し、さらに
聞き易い音域に平行移動するために55と加算されて、初期値90というベロシティ値を
添えて、持続時間100msec(イベント間隔の半分)のMIDIノートイベントとして出力
されています。

 左端に三角形のある数値ボックスは定数でなく「変数」ボックスなので、リアル
タイムにフレーズを生成させながらこの箱の中でマウスをドラッグすると、
パラメータμを自在に変化させて「演奏」することができます。この簡単なパッチ
はこの意味で、固定的なカオス生成シーケンサではなくて、インタラクティブ演奏
を行うことができる一種の「楽器」を実現した、アルゴリズム作曲の作品なのです。

 パラメータμが3.0から約3.6までの領域というのは、いわゆる「倍周期分岐」の
領域です。つまりこのMAXパッチの場合には、パラメータの増大とともに少しずつ
音程の広がる「2音のトリル演奏」のように聞こえます。そして2音のそれぞれが
さらに2音に分岐する領域になると「4音の分散和音のアルペジオ」となり、さらに
8音、16音、...と同様に変化していきます。これはもっと大きな時間的構造に利用
した場合には、「リフレインの繰り返し」「楽節の繰り返し」などに応用できます。

 倍周期分岐が進んでいくと、ついには周期的構造が知覚できない領域に突入
します。これがいわゆる「カオス領域」で、完全にカオス状態であれば、外見的
には単なる乱数生成と変わらないような出力が得られます。コンピュータの
「乱数」には、最小公倍数が大きいだけの周期的データで代用してしまう場合も
少なくないので、良質の乱数生成器としてカオスジェネレータを使用する場合も
あります。実際の音楽作品に利用した筆者の経験からは、「どこがカオスか解ら
なかった(^_^;)」という感想の多くは、このカオス状態が単なるランダム・
ミュージックとしてしか表現できなかったためであると理解しています。

 実際の筆者の作品においては、このようにカオスジェネレータの出力が完全な
乱数になっている領域では、図3に示すようなアルゴリズムを通過させるような
応用を用いています。ここでは、Logistic関数の出力はまず「イベント・フィルタ」
を通過して、連続的なイベント間隔から一定の確率で非発音状態を選択することで、
擬似的なリズムを生成します。次に「音域フィルタ」をかけて発音の音域を規定
し、この上限と下限の値はリアルタイムに刻々と変化させます。さらに、「12音出現
確率フィルタ」を経て、12種類のピッチクラスの中での出現確率(ON/OFFでなくゼロ
から1までの連続値)の重み付けを行います。このパラメータも演奏時に刻々と変化
させることで、「スケールや調性感のメタモルフォーゼ」を実現します。そして最後
に発音イベント・シーケンスとして次第に音量が減少するディミネンド特性を
与えて、MIDIノートイベントとして生成します。このようなアルゴリズムで生成
されたフレーズはかなり乱数的な性格が薄れて、コンサート評を書いた音楽評論家
の記述では「動的なミニマルミュージック」と聴取されています。これは作曲上の
意図からすれば、あながち外れたものというわけでもありません。(^_^)

 さて、筆者にとってカオス現象のもっとも面白い領域は、カオス・ゾーンの中
にある「窓」の付近です。パラメータが約3.6を越えればあとはずっとランダム
状態かというと、これがまったく違うのです。カオス・ゾーンの中のあちこち、
拡大していくといたるところに、「実際の値がある限られた値に収束(縮退)して
しまう領域」が多数、存在しています。これは理論的には「窓」と呼ばれる部分
で、もっとも顕著な領域では3値に、その付近では6値や9値に分岐して周期的な
振動を繰り返します。さらに、5値や7値、11値や13値に分岐する領域、その周辺
にはそれぞれの2倍・4倍...と分岐する部分もあり、パラメータをうまく選ぶ
ことで、任意の繰り返し周期に分岐した動作を行わせることが可能なのです。

 図4はこのような「カオスの任意周期動作の指定」を利用した筆者の作品
「Strange Attractor」(1994年、日本コンピュータ音楽協会コンサートにて
初演)におけるパッチの例です。図4上は全体を制御するメインパッチで、
ここでは、プリピアード・ピアノを演奏するピアニストの情報を検出するセンサ
からの情報監視、スクリーンに投射される2次元カオスCGのパラメータ制御と
あわせて、音楽部分のフレーズの中核となる「周期数」を「3音フレーズ」から
「8音フレーズ」まで任意に選択するためのパラメータを生成しています。
図4下はこの中の個別のカオス生成ジェネレータを制御するサブパッチの中を
展開したもので、このようなサブパッチが図4上の上方には8個並んでいます。

 このような「完全に特定の周期状態に縮退してしまう」パラメータの周辺では、
まだあまり解明されていない、興味ある現象が起きます。筆者もこの部分はまだ
実験の途上であり、具体的なアートとしての実現可能性に期待しているところ
です。「窓」の境界、周期的振動に落ち込むほとんど「淵」の部分において、
パラメータを微小に変更できるようなシステムで、カオスジェネレータと対話的に
実験してみると、「パラメータを変更させる」というアクションに対して、「振動
がアクションを押し戻す」「いやいやながら動作が動く」といった、感覚的な
表現でしか伝えられない独特のレスポンスをもたらす事が少なくありません。
これが筆者の興味の焦点で、ある種のインテリジェンスをシミュレートできる
可能性があるかもしれないので、今後も検討を進めてみたいと思っています。

●カオスの応用と音楽への適用

 カオスの考え方は現在では自然科学のほとんどの領域で認知されるようになり、
特にコンピュータ科学の世界ではコンピュータ・シミュレーションとの相性が良い
ために、積極的に研究が進められています。たとえば、「ファジイシステムと
カオス」というテーマでは、ファジイ論理の一部にカオスジェネレータを組み
込んで、動的な適応特性の改良を実現したり、「ニューラルネットワークと
カオス」というテーマでは、ニューロンとして、あるいは学習段階にカオス動作を
行わせることで、システムの学習能力や収束性を向上させています。また、
「遺伝アルゴリズムとカオス」というテーマでは、乱数にもとづく突然変異
よりも優れた遺伝動作をカオスによって実現するアプローチが検討されています。
このような研究的テーマの中には、それを音楽やパフォーマンスといった、
テクノロジー・アートとして実現することが面白そうな領域が豊富に残っており、
今後も機会を見て検討していきたいと思っています。

 筆者のこのようなアプローチの原点にあるのは、カオスだけでなく広義の分散
知能系による、「系全体としての知的な振る舞い」への興味です。最近もっとも
話題となっている人工生命についても、従来の中央集権的な人工知能システムの
行き詰まりから、分散知能による実現が注目されており、これは本質的に共通する
視点であると言えます。そして筆者の場合、Computer Musicを典型とする
テクノロジー・アートとして興味を持っているのは、芸術において重要な要素
である「即興性」との関係なのです。即興とはデタラメでも乱数でもなく、かと
いってルールでも規則でもありません。システムに完全に自動演奏させる即興
音楽、というのは筆者にとってあまり関心はなく、あくまで人間とセッションする
システムにおいて、人間のperformerに芸術的な刺激を与えてくれるような
「パートナーとしての即興性」、というものを実現してみたい、というのが最大
の目標なのです。手法はカオスであっても人工生命であっても構わなのですが、
このような概念的目標が研究の一つの原点なのです。

●マルチメディア・アート生成支援環境

 筆者は最近のマルチメディア作品において、Computer Musicシステムと
Computer Graphicsシステムとを有機的に結合して、その実現を試みています。
たとえば、図9は前述の図4のパッチを含む作品「Strange Attractor」のシステム
ブロック図です。ここでは、プリピアード・ピアノの演奏センサに対するパターン
認識、全体の音楽を進行させるメイン部分、カオス音楽情報を生成する部分、と
いう3つのMAXによる分散処理を行い、さらに別のパソコンでもカオスジェネレータ
を走らせ、さらに2次元カオスをリアルタイムに描画するCGソフト用のパソコンも
使用して、全体として5台のノートパソコンを使用しています。(^_^;)
原理的には3台のMAXは1台に統合することが可能なのですが、作曲の過程では
それぞれの処理を切り分けることは重要で、特殊なMIDIプロトコルを規定する
こともあって、システムとしてのデバッグ性からもいたずらに集中処理を指向
することは得策ではないと考えています。

 また、図10はCG作家 : 由良泰人氏とのコラボレーションとして開発した、
インタラクティブなマルチメディア・インスタレーション作品「Muromachi3」に
使用したMAXのパッチです。ここでは、由良さんの制作したAMIGAコンピュータ上
の「お絵描きソフト」から与えられるMIDI描画情報を入力として音楽系が駆動
される、という体験型の動作のために、ペンシル型マウスによる描画の2次元
情報に対応するサウンドの生成、さらにアクションに応じて選択される背景音楽
の生成を行っています。この作品をコンサート会場で音楽として聴いた場合には、
ステージ上のパフォーマーが自由に「お絵描き」しているのに合わせて音楽が
リアルタイム作曲されるので、毎回、まったく音楽としては異なったものに
なります。さらに、パフォーマーがノッてきて(^_^;)、いくらでも描画を
続けて「終了」シーンに進まなければ、この音楽は永遠に終わらないことも
あるのです。作品の「演奏時間」は15分の時も30分の時もありました。(^_^;)

 このようなマルチメディア・アート作品の制作を重ねる上で浮上してきた課題
は、「汎用性」の問題です。上記のような事例においては、システムそのものが
作品そのものであるために、同じようなシステムで別なコンセプトを適用した
作品を制作しようとする場合、また最初から特殊なシステムを構築する必要が
あって、アート創造の支援環境として広く提供する、といった汎用ツールとは
なりにくいのです。そこでイメージ情報科学研究所の我々のグループは、「マルチ
メディア・アートの汎用生成支援ツール」の実現を目指したプロジェクトを
スタートさせています。ここで「生成」というのは、たとえばビデオ映像作品の
ように「制作」「作品として固定」「再生して鑑賞」というプロセスに分離
せず、制作の環境がそのままリアルタイム・インタラクティブなパフォーマンス
の場でも利用される、というこれからのマルチメディア・アートのスタイルを
意識したからです。

 図11は、このようなシステムの概念モデルとして我々が掲げているもので、
合い言葉は「Graphicsを聴き、Musicを観る」です。つまり、Unix上のマルチ
エージェント・システムとして、ビジュアルな要素を生成するエージェント
とサウンド/音楽を生成するエージェントとをまったく対等に並べ、ここに
人間のパフォーマンス情報や、あるいは生成されている音響/画像情報の
フィードバックを作用させて、全体として有機的なマルチメディア・アート
を生成させていこう、という拡大されたアルゴリズム作曲の構想なのです。
システムの中核には、従来的な意味での「作曲」「演出」に相当する、シナリオ
記述によるイベント構成のエージェントもいますが、万能な指揮者として君臨
するというよりも、それぞれの生成エージェントの調停役、あるいは議長として
の振る舞い程度に抑えることで、システムとして人間と面白く対峙した動作を
実現できるものと期待しています。

 図12は、このプロジェクトの実験的デモンストレーションとして、日独メディア・
アート・フェスティバルにおいて発表した作品「David」のシステム図です。
このブロック図からだけでは、従来のシステムとあまり大差ないように見えますが、
初めてパソコンでなく、SGI社のワークステーションIndyをライブパフォーマンス
に使用し、X-Windowsの環境でOpen-GLを用いてC言語で開発した3次元CGが、
音楽系とともに、センサ出力によってリアルタイム制御されました。最終的にはUnix
上にほぼ全体のシステムが移植される予定なので、ここでのMacの使用は過渡的な
ものと言えます。

 図13は、この作品における音楽系を担当したMAXのパッチです。詳しい内容説明
は省略しますが、センサからの情報でテンポ可変となっているリズム生成系が
3拍子・4拍子・5拍子に分割されてビートを構成し、さらにセンサからの情報に
応じたスケールを移動するベース音とドラムを駆動します。音量やエフェクトなども
センサ制御され、同時にCGも完全に同期して制御されます。また、センサとして
用いたMiburiの情報から、合計40種類の連続可変音響を生成して、ダンスによって
全て駆動されるマルチメディア・パフォーマンスを実現しました。

●JACOMコンサート

 この記事が間に合っているのかどうか不明(^_^;)なのですが、7月13-14日に
神戸・ポートアイランド内のジーベックホール(全国的に有名ですよね)で、
日本コンピュータ音楽協会(JACOM)の2回目の演奏会があります。国内のこの
分野で活躍している多くの作曲家の作品が発表され、Computerを利用した
インスタレーション(体験型の作品)の展示もあります。日本で行われる
イベントとしては、国立音大の莱先生のところ(「莱組」と呼ばれています)
の毎年恒例の研究公開コンサートと並んで、現在の最新の状況をたっぷりと
体験できる数少ないチャンスですので、興味のある方はおいで下さい。

 図14は、このコンサートで初演するために筆者がまさに作曲している最中の
新作「Asian Edge」のシステム図です。今回は自宅とイメージラボの2台のIndy
を神戸まで持込み、Computer Sound と Computer Graphics をそれぞれ、MIDI
でびしばしとリアルタイム制御します。2台のMacはいずれもMAXです。また、
由良さんの3本のビデオ映像と4台のビデオカメラ映像もIndyのCGとともにMIDI
制御のスイッチャで切り換えます。新しいセンサも既に完成しています。
なお、この作品は外見はマルチメディア・アートですが、作曲の方針としては
久しぶりに本格的なComputer Musicとしてアプローチしています。サンプラー
ではメモリにとても入らないサウンドファイルをMIDI再生するために、Indyを
一種のHDレコーダ/プレーヤとして活用するためのソフトも自作しました。
1本のサウンドファイルが10MBから20MBのサイズがあり、これをMIDI制御で
同時に10数個バラバラと鳴らす、というのはIndyには得意なことなのです。

 この作品はおよそ12分間ほどのものなのですが、システムを実現するために
必要な機器を製作し、必要なUnix上のソフトを開発し、MAXのパッチとして
アルゴリズム作曲し、サウンドサンプルを一つずつ処理する、筆者にとって
この作品のための「作曲」に相当する時間は、1000時間を軽く越えます。
コンピュータによって便利になったとはいえ、できる事が増えれば時間は短縮
されるどころか伸びる一方です。音楽とはそういうものかもしれませんね。(^_^)

第8話 コンピュータに歌わせる

 今回は、Computer Musicがもっとも苦手としているテーマの一つ、
「コンピュータに歌わせる」という難題について紹介していきましょう。
MIDIベースのDTMでポピュラーやクラシックなどの打ち込みをしていると、
いろいろな楽器音はそこそこそれなりに再生できるものの、肝心のボーカルの
パートはまったく似ていない、という事実に愕然となります。音源に"Voice"と
いう名前で入っている音色は「アー」とか「ウー」というバックコーラスに
使う程度のものであって、歌詞のあるボーカルパートについてはまったく無力
です。Computer Musicの世界でも、なんとかしてこの状況を打開したい、と
いうアプローチは続けられているのです。

●電子音響素材としての音声

 いまさらあらためて言うまでもないのですが、音楽において「声」とは
究極の楽器です。多くの音楽ジャンルが、ある意味で「人間の声」と「その他
の楽器パート」という本質的な構成を取っています。これは、「声」が
歌詞という意味の世界をもっとも効果的に伝える、という特性に起因します。
母音唱法のボカリーズ(人間の声を楽器のように使う)とか、ラップのように
音階のない歌詞シャウト(これならフレーズサンプリングでごく簡単)もまた、
大きな音楽的素材なのですが、なんといっても歌詞とメロディーのある
ボーカルパートは多くの音楽で中枢にあります。

 そこで、各種の楽音合成方式や物理モデルなどの音源の探求とともに、
Computer Musicの強力な素材として人間の声を使う、という試みは長い歴史が
あります。ここでは、大きく3つに分けて、「Computerが喋る」「Computeが
歌う」「人間の歌声を利用する」というテーマごとの研究の状況などを
検討していくことにしましょう。

●Computerが喋る

 まず、他の音楽パートの持っているメロディーやハーモニーなどの
ピッチ情報とは切り離して、歌詞のもつ意味的メッセージを重視した、
コンピュータから「会話音声」を出力する、というテーマについて紹介
しましょう。

 もっともよく使われているのは、「音声合成」による方法です。これは、
たとえば「子音+母音」というように音素片を組み合わせて、自由な会話
を実現しようというものです。まったく人間味のない、いわゆる「ロボット
音声」としてかなり歴史も長いものですが、メモリのコストパフォーマンス
の飛躍的な向上とともに廃れてきてしまいました。ただし、この独特の
「味気なさ」がまた一種の魅力であり、MAXのspeechオブジェクトなどは
誰でも一度はハマるものです。

 たとえばヨーロッパでの活動が長い作曲家の三輪さんの作品では、
MAXから次々にspeechオブジェクトによって琴の奏法が告げられ、これに
人間の演奏者が対応して音楽が進められていきます。もともとspeechでは
日本語のテキストは発音できないのですが、英語の短い文字列を実験的に
発音させて、それらを組み合わせて日本語として聞こえるように構成
する、というまさにcompositionの成果として印象的な公演でした。

 もともとコンピュータによる自動音声合成というのは、テキスト情報を
そのまま読み上げる(現在で言えば104のダイヤル案内のような用途)、という
通信分野での応用から来ています。このため、音楽としては使えないほど
音質は悪いのが普通(データ量の圧縮に傾注しているため)なのですが、
このチープな音質がまた、独特の効果を出す要素として活用されている
ようです。

 そして現在では、PCMによるサンプリング技術が、ほとんど全ての音声合成
において主流となっています。たとえば、音素片による規則合成であれば、
「のぞみ」という言葉を「[N+o]+[Z+o]+[M+i]」というように子音と母音を
組み合わせた文字発音の、さらに羅列、として表現します。その結果、
「ぬぉ・ずぉ・むぃ」(^_^;)というような発音になります。ところが、
膨大なメモリが安価に用意できるようになると、「の」「ぞ」「み」と
いうそれぞれの文字の発音のためのPCMデータだけでなく、場合によっては
「のぞみ」という単語単位で辞書的に多くの発音データを読み出すことも
可能です。PCMの場合、人間(アナウンサーなど発音/朗読のプロ)がそれぞれ
読み上げた音声そのものですから、似ている似ていないなどという議論は
不要です。駅や列車の自動アナウンスは、この手法で人間の読み上げ音声を
列車や時間帯によって組み合わせているので、そこそこ自然に聞こえる
わけです。

 Computer Musicでは、サンプラーによってこの手法はもっとも一般的に
なっています。サンプラーのメリットは
 ・楽器としてMIDIレスポンスがよい
 ・ポリフォニックで同じフレーズでも何度も重ねて発音できる
 ・ピッチを付けて、たとえば同じ音声でハモれる
というあたりが強力です。ただし、ピッチを高くすると早く終わって
しまうので、音楽に使う場合には色々なノウハウもあります。

 筆者も現在(この記事の執筆時期は96年5月で、7月発表の新作を作曲中)、
まさに「Computerに喋らせる」ことにトライしています。アリガチな手法
として、先に録音したPerformerの詩の朗読を細切れにして、個々に
エフェクタをかけて、それぞれサンプラーに収録して、センサ情報によって
MAX経由でバラバラと読み出す、ということを行っています。これと同時に、
Indyを「MIDI制御のマルチトラックHDプレーヤ」として使うためのソフト
を自作して、たとえば44.1KHzステレオサンプリングの10MB-20MB単位の
音声データ(1分程度)を、同時に10数個もそれぞれMIDIトリガで再生する
ような仕組みも使っています。ここでは、後述のGranular Samplingの
手法で音響処理した素材を活用しています。

●Computeが歌う

 コンピュータが言葉を喋る、というインパクトは音楽の素材としては
非常に強烈な印象があるのですが、歌詞を離れても、いわゆる「歌う」
という部分(連続的・定常的な音響)としても、その個性は特徴的です。
いろいろな自然楽器すべてに言える物理モデルとして
 ・エネルギー源
 ・原信号発生機構
 ・共鳴機構
 ・発音(空中への発散)機構
という要素が必須です。たとえばいくつかの楽器で言えば、
----------------------------------------------------
                  |ピアノ      |フルート    |バイオリン      |声
----------------------------------------------------
 エネルギー源    |人間の打鍵  |人間の息    |人間の弓の運動  |呼吸
 原信号発生機構  |弦を叩く振動|吹き口の気流|弓と弦の摩擦振動|声帯
 共鳴機構        |他の弦の共鳴|気柱振動    |ボディの振動    |喉と頭
 発音機構        |響板        |そのまま発散|ボディの振動    |身体共鳴
----------------------------------------------------
ということで、人間の「歌う」ことも完全にここに含まれています。

 そこで、言葉の発音の最初の部分の非定常的なところはさておいて、
人間のボーカルが長く延ばしているところの音色を実現してやろう、という
試みは歴史が長いものがあります。「ボコーダ」「CHANT」「FOF」などと
いう楽音合成方式(専門的なのでここで詳しく述べることは省略します)は、
それぞれの時代に印象的な音響をアピールし、多くの作曲家が作品に
活用してきました。

 しかし、ここでもサンプリング全盛時代となって、生身の人間が「あー」
「おー」と歌っている音響をPCM録音し、クロスフェードによって切れ目の
感じられないループ音響にすることで、これ以上似ているものがない(当然)
というサウンドが出回るようになったのです。

 ただし、サンプリング音声をMIDIによってピッチを変えて再生した場合、
もともと録音された音域ではそれっぽいのに、ピッチが違うところでは
かなり不自然となります。これは当然のことで、人間は「原発生機構」の
ところでピッチを変えているのですが、共鳴機構の部分はそんなに変わる
筈がありませんから、フォルマントと呼ばれる共鳴フィルタの特性は
固定ピッチなのです。ところがサンプラーでピッチを変えるとフォルマント
周波数まで移動してしまうために、まったく似ていない声になって
しまいます。ある程度以上のクオリティを求める場合には、ピアノと同様に
マルチサンプリングしかありません。

 このような状況で、最近の研究について少し紹介しておくと、「物理モデル」
のアプローチはかなり本格化しています。つまり、声帯の振動を物理モデル
としてきちんと微分方程式として表現して原振動生成を行い、さらに
咽頭から頭蓋・鼻腔の共鳴についても物理モデルでシミュレートして、
これをDSPを活用したディジタルフィルタとして実現しよう、という研究が
アメリカ西海岸のグループ(CCRMAやCNMAT)、そしてヨーロッパのいくつか
のグループで試みられています。まだまだカストラート(声変わりしないよう
に去勢された歌手)ほどのレベルにも達していませんが、確かに「それっぽい」
というデモをいくつか聞いています。まだまだPCMに比べれば似ていない
のですが、「自分の作詩した詩データと自分の作曲したメロディーデータを
与えて、自分が自由に設定する発声パラメータで歌唱させる」という壮大な
目標のために、Computer Music研究は続けられているのです。

 また、早稲田大の橋本研究室では、「ロボット声帯」というのか、ちょっと
面白い研究を始めています。これは、エアーポンプで実際に空気を送り、
アクチュエータで実際に張力をかけたゴム膜による「声帯」を振動させて
歌わせてみよう、というメカトロニクス的なアプローチです。機構部分は
もちろんコンピュータ制御、それも実際に発音されている音響をリアルタイム
に「聞きながら調整する」というフィードバックをかけつつMIDI制御させる
ことで、パソコンのシーケンサから実際に歌わせてみよう、というものです。
まだ始まったばかりの段階ですからちょっと比較するのは酷なのですが(^_^;)、
このような研究から判るのは、「人間の歌唱というのは凄いのだ」という
当り前の事実なのです。次々にピッチを制御してメロディーを歌っている、
そんなカラオケ程度の「演奏」ですら、コンピュータ技術を駆使しても
なかなか実現できない、というところです。

●人間の歌声を利用する

 最後の項目として、コンピュータやメカトロのシステムに歌唱全てを任せる
のは諦めて、潔く(^_^;)人間の歌唱と共存する、というスタイルの音楽に
ついても検討しておきましょう。実は筆者は、もともと合唱の作曲や指揮を
やってきたこともあって、「Computerなどに人間の歌声が出来てたまるか」
という意見にはかなり共鳴できるところがあります。そこで、作品において
人間の声を素材として使う場合には、こちらのアプローチがほとんどなのです。

 まず、もっとも簡単でアリガチなのが、各種のエフェクタの活用です。
話題となっているIRCAMのISPWも、実際のところは「かなり高価なエフェクタ」
として利用されているのがほとんどです。つまり、人間の声を含めて、自然
楽器の音響というのは非常に豊富なニュアンスを持っていますから、これを
エフェクタでちょっといじる程度で、十分な効果が得られる、ということ
でしょう。世界を舞台に活躍している、Computer Music作曲家であり
バイオリニストの木村まりさんは、以前のコンサートではISPWを使って演奏
していましたが、最近ではもっぱらPowerBookのMAXとMIDIエフェクタです。
わざわざNeXTのISPWを使うほどのこともなく、なにより安心できるから(^_^;)、
ということでしたが、筆者も同感です。

 人間の歌声を利用、ということであれば、早稲田大・橋本研のピッチ補間に
ついても紹介しておかなければなりません。これは、「音痴が歌っても正しい
ピッチに修正してくれるカラオケ」という研究で、リアルタイムに歌唱音声
入力に対してDSP処理を行うものです。原理は簡単で、「はなうたくん」で
ピッチ情報を得て、これに応じて音響入力を細かくスライスした音響素片を
間引いてピッチを上げたり、長く伸ばしてピッチを下げたりするものです。
ただし、実験としてそこそこではあるものの、いわゆる音楽レベルで実用に
なるようなクオリティではなかった、という記憶があります。(^_^;)

 そして、これに似た手法として、筆者がこのところ愛用している、
グラニュラーサンプリング (Granular Sampling)というものがあります。
もともとは楽音合成のGranular Synthesisから来ている手法なのですが、
世界の研究者・音楽家が活用しているのは、どうもエフェクタとしての
応用がほとんどのようです。これは、リアルタイム音響入力をサンプリング
して、10-20msec程度のなめらかなウインドウをかけたGrainという素片に
変換して、これを「非常に多数」「時間的にランダムに」配置してやる、
というものです。言葉で説明しても音響のイメージはまったく伝わらない
ので詳しい説明は省略します(^_^;)が、
 ・ピッチが変わってもテンポはそのまま
 ・ピッチ感がなくなっても歌詞が伝わる
 ・フォルマント情報がどこかに消えているのに音声とわかる
 ・歌手の性別と年齢が不詳になる
などの効果があり、既存のエフェクタに飽き足りない人にとっては、一度
実験してみる価値のある、独特の音響と言えると思います。筆者はこれまた
Indy上のCプログラムとしてGranular Samplingソフトを作り、作品の一部
にさりげなく活用しているところです。(^_^)

●「歌」は人間の領域

 いろいろ紹介してきましたが、最後に一つだけ筆者の結論を書いて
おきましょう。音楽において、「歌」はやはり人間の仕事だと思います。
Computer Musicで「歌」を扱っている研究者/音楽家の多くは、本気で
人間の歌手を駆逐しようなんて思ってはいないのです。あくまで人間の
存在を確認するアンチテーゼとしてアプローチしている、とまで言ったら
言いすぎでしょうか。少なくとも筆者はこう考えていますが。(^_^;)

第9話 マルチメディアとコンピュータ・ミュージック

 今回は、Computer Musicの中で、特に「マルチメディア」をキーワードとして検討
していきましょう。もともと音楽とは、本質的にマルチメディア、あるいはマルチ
モーダルなものですが、最近のコンピュータ技術はまさにマルチメディアを指向して
います。多くの作品や演奏が映像やCGなどのグラフィクスとともに一体となって
いたり、楽器を演奏する、という古典的な意味の"Performer"がダンスや身振りなどの
身体表現によって「演奏する」、という形態も常識となってきています。

 色々な場で発表されている実例については雑誌や新聞でもよく目にしますので、今回は
私が実際に作品で行ったアプローチを、メイキング話を含めて詳細に紹介しながら、
「音楽情報からグラフィクス情報へ」、「グラフィクス情報から音楽情報へ」、「マルチ
メディア・インスタレーション」というキーワードで具体的に考えてみたいと思います。
過去に演奏された作品を文章によって紹介する、というのは非常に難しいことで、実際に
目と耳で体験していただくのがもっとも簡単なことなのですが、状況だけでも知って
いただければ、何らかのヒントになるかな、と期待して書いていきます。

●"CIS(Chaaotic Interaction Show)"

 この作品は、ICMC1993のポストカンファレンス・イベントとして、大阪のイメージ
情報科学研究所とIAKTA(International Association of Knowledge Technology
and Arts)の共催した「芸術と知識工学に関する国際ワークショップ」のデモン
ストレーション・コンサート(大阪・ライフホール)と、神戸国際現代音楽祭1993
(神戸・ジーベックホール)で発表したもので、私の作品としては初めてグラフィクスと
組んだComputer Music作品となりました。テーマとしてはタイトルにあるように、
その頃ハマッていた「カオス情報処理」の音楽への適用と、「音楽情報から
グラフィクス情報へ」という流れでのグラフィクスとのリンクです。この作品は、
その後も続いているグラフィクス・アーティストの由良泰人さんとのコラボレーション
の最初のお披露目となりました。

 音楽と映像に関するすべてのリアルタイム情報は、私と由良さんとで取り決めた
規約のMIDI信号として与えられます。一般のMIDIシステムと接続することのない閉じた
世界ですから、私の作品ではこのような手法は日常的です。(^_^;)
ステージ上には、MIDIドラムパッドを演奏するパーカッショニスト(花石真人さん)と
指揮者(私です)が立ち、指揮者はMIDIコントロールパッド、自作のジョイスティック
コントローラ、ファミコン用のパワーグローブをワイヤレス版に改造した自作センサ
等によって、特別に定義されたMIDIコントロール情報を送ります。両者の足元には
ビデオモニタが置かれ、ステージ後方の大スクリーンにプロジェクタで投射された
CGと同じ映像を見ながら、さらに音響を聴きながら、即興によって「演奏」を行い
ました。

 2台のノートパソコンのうちの1台は、作品の一部であるオリジナルのChaos生成
ソフトウェアが走り、もう1台は通常のMIDIシーケンサによって、BGM部分の演奏情報
とシステムパラメータが記述されて再生されました。BGM部分の情報はごくわずかで
あり、大部分の音楽要素(音列・リズム等)はステージ上でリアルタイムに生成(作曲)
されました。音源群は通常のPCM音源・DCF音源に加えて、自作のオリジナル音源と
して、Granular Synthesis音源とSinusoid音源がそれぞれ2台ずつ使用されました。

 CG系も同じようにMIDI情報によってコントロールされ、2台のAMIGAコンピュータ
が2種類のソフトウェア("Performer"、"Bars & Pipes")を使用しました。
前者はパーカッション奏者のトリガによって生成される一連のアニメーションの描画に
使用され、後者は背景映像として刻々と変化する画面に使用しています。指揮者は
後者のモード切り替えもリアルタイム制御しました。
パーカッション奏者の演奏するRolandドラムパッドに内蔵されている音源は使用せず、
全ての情報はMIDI化されてシステムに取り込まれ、パーカッション的な音として
アサインされる場合でも、オリジナルソフトウェアによって刻々と音源群の音色の
割当を変更しています。

 この作品の音楽的なコンセプトは、「Tonalityのメタモルフォーゼ」ということ
でした。オリジナルのChaos Generatorソフトウェアが生成する音楽要素は、MIDI
ノートナンバによって12等分平均律の体系に取り込まれており、ここでは音程出現
確率を刻々と変化させることで、スケールがもたらすTonalityがいくつかのブロック
間でなめらかに変化していくように作曲しました。この変化は背景CGの変化とも
リンクしていて、音楽は局所的にはWhole Tone Scale、琉球音階、Diatonic Scale、
Pentatonic Scale、12音音階などに対応したTonalityを持ちながら、次第に次の
Tonalityへと推移していきます。
 そしてもう一つのコンセプトは「リズムのメタモルフォーゼ」でした。
中間部では具体的に打楽器音色の背景音楽がChaosの周期的出力によって生成され、
指揮者のセンサーパッドからのトリガで5beat・6beat・7beat・8beat・9beatなどの
拍子の変化を受けながら、さらになめらかに加速していくことでパーカッション奏者
を挑発します。

 なお、この作品ではCGは基本的に「トリガ」情報によって音楽情報とリンクされ
ました。CGシステムとしてはMIDIパラメータによる連続コントロールに対する変化を
生成することも可能だったのですが、全体のMIDI情報のトラフィックが非常に多量に
なったために、この時は「トリガ主義」で構成したのです。

●"Muromachi"

 この[映像:由良+音楽:長嶋]というコラボレーションに味をしめて、第2弾と
して、1994年に京都で開催されたイベント「眼と耳の対位法」(京都ドイツ文化
センター)で上演されたのが、マルチメディア作品 "Muromachi" です。この作品は
同年秋にも日本コンピュータ音楽協会JACOMのコンサートで改訂版"Muromachi2"
として再演され、さらに後述するインスタレーション"Muromachi3"として発表
されています。またこの作品では、映像と音楽との関係について前作と正反対の
コンセプトをとったこと、京都と浜松という離れた場所で作品を制作するために通信
ネットワークをフルに活用したことなど、マルチメディア時代の新しい芸術創造の
スタイルの可能性についても得ることが少なくありませんでした。

 全作 "CIS (Chaotic Interaction Show)" では、ステージ上のパフォーマーとして
打楽器奏者と指揮者が演奏・操作するセンサ群が音楽をトリガするとともに、
コンピュータ・グラフィクス系をトリガする構成をとっていました。つまり、
ステージ上のパフォーマンスとしてはほぼ伝統的なスタイルの音楽演奏があって、
そこから付随して起動される映像と背景映像、という形式です。これはいわば、
音楽が「主」・映像が「従」の関係と言えます。そこでこの "Muromachi" では
意識的にこの関係を逆転させ、「映像が音楽を駆動する」ことを最初のコンセプト
ワークから念頭に置きました。従って、このアイデアを決定してから最初の作品構想
の提案まで、そしてタイトルのネーミングまでを、映像担当の由良さんが行いました。
そこで、このキーワードのもとに由良さんから構想の電子メイルが届くまでの期間の
私の作業としては、従来から続けているカオス情報処理による音楽情報生成
(アルゴリズム作曲)の研究を進めて、具体的な作品で利用されるパラメータを
シミュレーションによって模索することが中心となりました。

 一つの作品を複数メディアの担当者によるコラボレーションとして制作する場合
の最大の課題は、スケジューリングとコミュニケーションです。今回の場合には、
京都の由良さんと浜松の私という距離的な問題から、実際に空間的・時間的に一緒に
いる機会はほとんどなかったのですが、Niftyの電子メイルによって、
 ・アイデア段階での情報交換
 ・システム情報(プロトコル)の伝達
 ・制作スケジュール・リハーサル等の連絡
などが効率的に行えました。よく知られている、電話やFAXに比べて電子メイルが
優れている点の
 ・双方が相手の行動/時間に拘束されない
 ・記録が再利用可能な形式で双方に残る
という点だけでなく、電子メイルとして記述することで自分の発想を客観的に見直す
ことができる、というメリットもあることを実感しました。

 グラフィックソフトの制作に当たって、まず「子供に扱える」インターフェイス
を考え、出来るだけ簡素な画面にし、上演画面が単調にならないようにランダム性を
取り入れました。また、画面の色やスタンプの形状はパフォーマーがコントロール
出来ないようにして、その場の状況で判断して作図させるようにしました。開発言語は
AMIGA用BASIC"AMOS Pro"です。この結果、映像側から音楽側に提示されたのは、
1本のソフトの動作を示す映像を収めたビデオでした。当然のことながら音は入って
いません。このソフトはAMIGAコンピュータ上で制作した一種の「簡易CGお絵描き」
ソフトで、
 ・マウスによって描画する
 ・メニューとして「自由曲線」「塗りつぶし」「図形貼り付け」を持つ
 ・画面クリアのコマンドも持つ
 ・メニューの3種類の描画モードを切り換えて使う
などの基本機能があります。ここから共通のイメージとして、子供が無邪気に遊ぶ
ような「お絵描き」が音楽を生成する、という基本構想が両者で合意されました。
AMIGAコンピュータのMIDI端子を活用して、
 ・お絵描きによってAMIGAから音楽システムにMIDI情報が届く
 ・これに対応して音楽/音響が生成される
 ・これとは別に背景音楽が存在するが、決まった長さを単純に「再生」するような
  カラオケにはしたくない(あくまで映像が主体)
というような具体的な方針が固まり、ここから音楽系の作業が本格的に始まりました。

 この作品では、音楽系として4台のコンピュータを使いました。2台のMacで"MAX"
を使ってMIDI情報からパフォーマンスを検出する一種のパターン認識を行い、
もう1台のノートパソコンでは前作と同様のオリジナルのカオス生成ソフトを走らせ、
あと1台のMacではシーケンサ"Performer" を使用して、トリガによって頻繁に切り
替わる「非周期的無限フレーズ」を再生させることで背景音楽を生成しました。

 作曲の初期段階においてもっとも悩んだのが、パフォーマンスの形態です。
一般に音楽作品であれば、演奏者がステージに登場してイントロから音楽が始まり、
エンデンィグに終結することで音楽が終わります。ところが「お絵描きソフトで遊ぶ」
という行為には明確な始まりも終わりもなく、イベントのステージで行われる
パフォーマンスとしては非常に問題があります。しかし固定したシーケンスデータと
して明確に演奏時間を規定したのでは、自由なパフォーマンスという性格が阻害
されてしまいます。そこで最終的には、
 ・イントロとして背景音楽がスタートし、パフォーマーがステージに登場する
 ・パフォーマーのトリガで音楽(全体で3シーン)のシーンが進む
 ・最後のトリガ(3回目の画面クリア)でエンディングに進んで終了する
 ・これ以外の進行は完全にパフォーマーに委ねる
という音楽的構成としました。つまり、演奏が始まってしまえば、パフォーマーがその
気にならなければ永遠に終わらない可能性もある音楽作品(^_^;)、ということです。

 これとともに、音楽系は演奏形態として大きく3つの構造を持つこととしました。
その第一は、パフォーマーのマウス操作によって、
 ・自由曲線による描画("Draw" mode)
   →左右が音程変化、上下が音色変化で発音。音色はラインの色ごとに切り替え
 ・領域の塗りつぶし("Paint" mode)
   →色ごとにそれぞれ特徴的な音響断片の発音
 ・図形の貼り付け("Stamp" mode)→
   →左右が音高変化、上下が音色変化で発音。音色は図形の形ごとに切り替え
という対応をとって、背景音楽と関係なく発音される音響です。
 また第二には、パフォーマーが画面消去のコマンドを発行することで次のシーンに
進むたびにパターンをやや変化させながら、さらに上記描画モードごとに異なった
音楽的スケールの構造で構成された背景音楽を鳴らすパートです。これは単純な
リズムでなく、周期を構成する時間軸がかなり大きな公倍数を持つようにして、
次のシーン/描画モードが呼ばれるまで無限に繰り返すようになっています。
 そして第三に、"Effect" mode として画面にエフェクトをかけるモードや、各
シーンごとの切り替えに対応したサウンドとともに、イントロとエンディングを作曲
しました。3回目の消去("Erase" mode)で自動的にエンディングに移行して終了
します。

 グラフィックソフトと音楽系の構想が固まると、両者システムの情報交換に
関するプロトコルが、電子メイルによる検討を繰り返しながら決定されていき
ました。描画の座標情報はMIDIノート情報として規定したのですが、これは
情報としては「オン」と「オフ」を持つ冗長なものです。しかしこうすることで、
京都では由良さんがAMIGAからMIDI音源を鳴らして動作を確認できる、という
メリットがあり、敢えて採用したものです。

 今回は「従」の立場となった作曲側においては、実際にAMIGAコンピュータ上で
マウスで描画してみないと、本当のパフォーマンスに対応した雰囲気のMIDI情報が
得られません。そこで、私は疑似的に由良さんのソフトと同様の動作をする簡易CG
ソフトもC言語で製作しました。ノートパソコンのモノクロ画面で簡略的に描画する
ものではあるのですが、基本機能はほぼ対応したソフトであり、遠隔地での作曲ツール
として最後まで活用できました。

 パフォーマーの操作するセンサとしては、当初はディジタイザを検討していました
が、AMIGAコンピュータのポートの関係でマウス操作を行うこととなりました。
しかし、通常のデスクトップのマウス操作はあまりにパフォーマンス性が乏しく、
ここに登場したのが、「透明アクリル板上でペンシル型のマウスを使う」という
アイデアです。ステージでは、パフォーマーはアクリル板越しに足元のディスプレイ
を見ながら描画ましたが、ステージ正面の大スクリーンに投射される映像を背負う
位置と相まって、印象的なパフォーマンスを実現することができました。これは
もちろん、パフォーマー(八幡恵美子さん)のセンスがなにより重要でした。

●"Strange Attractor"

 この作品は1995年のJACOMコンサート(神戸・ジーベックホール)で発表したもの
ですが、これだけは由良さんとのコラボレーションでなく、CGも私が自作しました。
といっても、私はグラフィクスのセンスはありません(^_^;)から、C言語で制作した
「MIDI制御2次元カオスのグラフィクス」というソフトは、完全に数学的な演算処理
の結果だけを刻々と描画するものなのです。

 この作品のテーマは、それまで続けてきた「カオス」の総集編という意味あいが
ありました。つまり、サウンド系では色々な形態のカオスによるリアルタイム作曲
系が走り、Performer(吉田幸代さん)は耳を澄ませて、現在カオス系が生成して
いるフレーズのビート数がいくつであるか、という認識結果を次の行動に反映する
ように要請されました。あるシーンでは、Performerは演奏が音響とともにCGを
トリガする、という意味での「演奏」を行い、また別のシーンではカオスCGの
スクリーンを見ながら、この情報に応じた即興演奏を行うように楽譜で指定
されました。

 システムとしては、「ピアノの中に鎖を投げ込む」「バチでピアノ内部の弦を叩く」
「両肘を使ってなるべく多数の鍵盤を押す」などのプリピアード・ピアノの演奏を
検出する自作のセンサに対するパターン認識、全体の音楽を進行させるメイン部分、
カオス音楽情報を生成する部分、という3つのMAXによる分散処理を行い、さらに別の
パソコンでもカオスジェネレータを走らせ、さらに2次元カオスをリアルタイムに
描画するCGソフト用のパソコンも使用して、全体として5台のノートパソコンを使用
しました。原理的には3台のMAXは1台に統合することが可能なのですが、作曲の過程
ではそれぞれの処理を切り分けることは重要であり、特殊なMIDIプロトコルを規定
することもあって、システムとしてのデバッグ性からもいたずらに集中処理を指向
することは得策ではないと考えています。

●"David"

 イメージ情報科学研究所の研究テーマの一つである「マルチメディア・インタ
ラクティブ・アートのオーサリング環境」に関連して、私は由良さんと一緒に研究
と応用のグループを構成していますが、ここに阪大の藤田康成さんの加わった3人で
最初に発表したコラボレーション作品が、この"David"(1995年、京都・ドイツ文化
センター)です。3人の役割としては、私がSGI Indy 上の基本ソフトウェア(MIDI周辺、
X-Windows、Open-GL、マルチプロセス処理等)を実験して枠組みを提示すると、
藤田さんがUnixプログラマとして規模を拡大していきます。ここに由良さんが
CGアーティストとしてのセンスでOpen-GLのコンテンツとアイデア部分を盛り込み
つつ、次第に自分でもCでプログラムを作成するようになりました。(^_^)
音楽系は全て私が担当し、藤田さんはダンスの専門家(高安マリ子さん)に弟子入り
して、なんとこの作品ではPerformerまで担当しました。

 システムとしては、センサにヤマハのMIBURIを音源抜きで使用し、さらに由良さん
がステージ上でライブ制御するMIDIミキサーコンソールも使用しました。MIDI情報
はIndyのCGとMAXの音楽系を駆動する、という構成で、ダンスパフォーマンスの
シナリオと演出、さらに具体的な身振りと音響とのパラメータ調整も、Performer
自身がMAXのパッチをプログラムすることで、自分の納得いく対応を実現しました。
この作品をマルチメディア情報の流れで図式化するとすれば、「ダンスが音楽系と
グラフィクス系の両方を駆動する」ということになります。このようなアプローチ
としては最初の試みで課題も認識しましたが、色々な可能性も収穫となりました。

●"Muromachi3"

 作品の発表時期としては前後するのですが、1995年に「芸術祭典・京」で発表
したマルチメディア・インスタレーション作品"Muromachi3"は、また新しい可能性
を発見させてくれました。この作品はタイトルから明らかなように、由良さんと私
のコラボレーション"Muromachi"の発展形です。この作品に接した多くの聴衆から
の感想として、「あの[音を駆動するお絵描き]を、見ているだけでなく自分でやりたい」
というものがありました。そこで、「来場者が自分でシステムを操作して体験する」
という形態のインスタレーション版として、特に音楽系については全面改訂したもの
です。

 ステージ版では4台のノートパソコンを使っていた音楽系システムを、インスタ
レーションとしてのポータブル性を考慮して、たった1台のMAXパッチに押し込み
ました。また、ステージ版では5Uのラックで2個分あった音源システムも全面改訂
して、なんと「SC-55を1台だけ」(^_^;)という条件で作曲しました。上記の"David"
では同様に、敢えて「SC-55を新旧それぞれ1台ずつだけ」としました。私は
こういう場合、ポリシーとして「ファクトリーリセットの音色だけを使う」という
ことにしています。つまり、MIDIエクスクルーシブによるシンセサイズは一切
行わず、「素の」音色だけで多彩な音響を実現することに意地になるのです。(^_^;)

 前作の作曲経験がかなり効いてくるために、作品としては自分なりになかなか
面白い音響の実現ができたと思っています。Niftyの音楽情報科学の会議室で、
希望があれば紹介してもいいかな、と思える、ノウハウに溢れたMAXパッチです。
言い換えれば、「素のSC-55でも十分」と言える領域がかなり広いものなのだ、と
再認識しました。たとえば、CGでちょっとした線を1本引く、という動作に応じて、
MAXパッチからは頻繁に多チャンネルのノートイベントだけでなく、同時に
ボリューム、パンポット、ピッチベンド、プログラムチェンジがざわざわと音源
に送信されて、結果として、ある「線を引く」という操作に対応した音響が生成
されているのです。

 この作品は、芸術祭典にあらかじめ参加希望していた小学生だけしか触れることは
できませんでしたが、1996年7月にはJACOMコンサートのロビー展示で公開
されましたし、またいずれ、機会があればどこかでお会いできるかもしれません。
このようなインスタレーションについても、さらに機会があれば色々とトライして
みたいと思っています。音楽に返ってくる収穫も多い、というのが私の感想です。
(まだ掲載されていません。Computer Music Magazine誌を買って下さいね。(^_^;))

第10話 人間とコンピュータ・ミュージック

 Computer Musicのコンサート(パフォーマンス)の形態として、いわゆる
「テープコンサート」形式というのは、聴衆にとってなかなかキビシイものが
あります。作曲家は電子音楽スタジオで、非実時間的に相当な努力を重ねて、
音響を練りに練って、何度も繰り返し聴きながら作品を作り上げていき、
最終的にはDATテープなどに落としています。これをコンサート会場で聴く
場合には、うっすらとホリゾント照明をするにしても、ステージ上には誰も
いないで、聴衆はひたすら耳を傾ける、というだけになってしまい、えてして
強烈な睡魔と闘うことになります。(^_^;)

 これはシーケンスソフトによって作られたDTMの作品コンサートでも同じこと
で、FMIDIで行ってきたコンサートでも、適当なイメージビデオの上映を伴う
ことはあっても、基本的には同様の物足りなさが残ってしまいます。実際には
パソコンのシーケンサによって、現在進行形で刻々と演奏データを読み出して
MIDI音源が鳴っている(作曲者はパソコンのハングアップを心配する(^_^;))
のですが、聴衆にとってはテープの再生とシーケンスデータの演奏とは、
「何度やってもまったく同じものが再生される」という意味で同等なのです。

 そこで、やはり音楽はライブだ!ということで、Computer Musicでも最近
はライブものが流行しています。初期のライブは「DATに落とされたBGMを
演奏者が聴きながら共演する」というものでしたが、最近ではMIDIと各種
センサを駆使して、本当にインタラクティブなスタイルが増えてきています。
作曲者にとっては、それでなくても爆弾の恐いコンピュータ(^_^;)に、さらに
ライブでセンサからの多量のMIDI情報を食わせて処理させる、というのです
から、一発勝負のコンサートの場では、これほど心臓に悪いことはありません。
学会やワークショップのデモンストレーションであれば、断片的な紹介で
構わないのですが、10分とか15分の「作品」として相当の規模の情報処理を
仕込んで公演する、というのは、かなりのテクニックとパワーを必要とします。

●センサ周辺

 まず必要となるのは、人間の演奏者の演奏情報(広義にはPerformanceの
情報すべて)をコンピュータシステムが取り込むためのセンサです。MIDI
対応のキーボードやドラムパッドやウインドセンサやMIBURIなど、市販の
センサも色々とありますが、どうしてもコスト第一主義のため、あまり
満足のいくものはありません。そこで、私は個人的にも、イメージラボの
グループでも、これまでに数多くのセンサを開発して、実際の作品で実験
的に利用してきました。

 私の現代音楽の師匠である作曲家の中村滋延さんの作品で用いる新しい
センサを開発する際には、私はエンジニアに徹して取り組みます。これまで
に、「複数の赤外線ビームの遮断速度をMIDI化」・「オブジェに触れたタッチ
を検出」・「加速度を3軸方向で検出するセンサを仕込んだ指揮棒」・
「スティックで物を叩いた音色によって異なる情報をMIDI出力」・「巨大な
チェス盤の上に駒を置く位置情報をMIDI出力」・「ダンサーの足の親指に
つけた超小型スイッチをワイヤレスで出力してMIDI化」・「並べたパネルを
踏むとMIDI出力される[音の道]」などなど、ここ数年間に30種類ほどの
オリジナルセンサを製作してきました。

 自分の作品で使用する場合には、よりリスクが大きい冒険もできるので、
「パワーグローブをワイヤレスMIDI化」・「プリピアードピアノの中に鎖や
鉄板を投げ込む音響からMIDIトリガ」・「MIBURIのセンサだけを切り離して
超小型MIDIボックス化」・「ゲーム用ジョイスティックによる2次元センサ」
なども使ってきました。このようなセンサを実際のコンサートで使う場合
には、MAXのパッチによってセンサが止まった場合にもフォローできるような
「安全弁」が重要になります。実際に東京と神戸で行ったコンサートでも、
パワーグローブのセンサのバッテリが消耗してなかなか情報が出なくなったり、
と冷汗をかいたことも少なくありません。(^_^;)

 イメージラボでは、尺八奏者であり作曲家でもある志村哲さんの「竹管の
宇宙」という一連の作品をサポートして、より強力なセンサ群を開発して
います。たとえば、「CCDカメラで3次元空間内の位置を検出」・「尺八の
音響をマイクから入力してリアルタイムにピッチとパワーを検出」・「超音波
センサで、ステージ上の1辺5メートルの立方体内で、身体に付けた各センサの
位置情報を5mmの分解能でリアルタイム追従」・「超小型の加速度センサと
ジャイロセンサをヘアバンドの後頭部に取り付け、尺八演奏の[首振り]を
詳細に抽出」・「尺八の指穴の周囲にタッチセンサを埋め込み、ON/OFFで
なく指穴の[かざし]情報まで検出」などのセンサを、作品では同時に利用
しています。

●MIDIマージとセンサフュージョン

 これらのセンサからの情報は、独自のフォーマットで定義されて、全て
MIDIとして出力されます。MAXという便利なツールがあり、センサからの電気的
情報をMIDI化するためのマイコンボードも、秋月電子のAKI-80とかPICという
マイコンチップによって、とても簡単に実現できるからです。もっとも、これ
にはある程度のエレクトロニクスの技術が必要ですから、誰でも手軽に、という
わけにはいきません。このあたり、色々なMIDIセンサの製作事例を紹介した本
を現在、書いているところですので、そのうち出て来るかもしれません。(^_^)

 たいていの場合、複数のセンサを同時に利用しますから、これらの情報を
統合して処理することになります。これは「センサフュージョン」という
技術で、要するに人間の微妙なパフォーマンスをただ1種類のセンサでは
検出できないために、複数のセンサからの情報を総合して、なんとか満足の
いく「演奏」に利用しよう、という作戦です。ここで最初に問題となるのが、
複数のセンサからのMIDI情報をマージ(合流)しなければならない、という
部分です。MIDIデータというのは単純に到着順に合流させても無意味なので、
MIDI情報をマージするためにも、専用のコンピュータが必要です。私は
このために、自分用にもイメージラボ用にも、何台ものMIDIマージャを製作
しています。かつて「トランジスタ技術」誌にもこの記事が載りましたので、
興味のある方は参照してみて下さい。

 MacをMIDIマージャとして利用できないこともありませんが、多量の情報
を食わせるとハングすることもあります。MIDIマージというのは、通常の
電子楽器の演奏程度の情報であれば問題はないのですが、多数のセンサから
のデータが連続量として怒涛のように流れて来る場合には、なかなか厳しい
側面もあるのです。そこで、場合に応じて「MIDIフィルタ」も必要となります。
たとえば、シリコングラフィクスのIndyワークステーションはMIDIを標準で
処理できる便利なマシンですが、センサ情報などの密度の高いMIDIをそのまま
与えると、あっけなくハングアップしてしまいます。(^_^;) そこで、私は
自宅Indy用のMIDIインターフェースも自作して、ここではMIDI情報によって
通過させる内容を自由に設定できるようなMIDIフィルタも内蔵しています。
AKI-80を使って1-2日で製作できる程度のものですが、効果は抜群です。

●パターン認識の活用

 さて、多数のセンサからの情報がMIDIマージャとMIDIフィルタを通過して
MAXに与えられると、ここからは一種のパターン認識という処理に移ります。
たとえば、尺八を演奏する志村さんから、「ある音からある音にジャンプした」
という音響センサ経由の演奏情報と、「Z軸方向に1.5Hzで振動」とかいうジャイロ
センサからの首振り情報が与えられると、そこでシステムは音楽のあるシーン
に到達したサイン、と解釈してシステムのパラメータを変更したり、サンプラー
から所定の音響を鳴らす、というような利用方法となっています。

 また、MIBURIのセンサ部分を改造したマシンからのMIDI情報として、0から
127までのデータが流れ込んできた場合、これを「ピッチベンド」「パンポット」
などの連続量としてそのまま利用することも、「ある値を越えたらON」という
スイッチとして利用することもあります。このあたりは、MAXのパッチで自在
に変わるので、MAXを使っているシステムであれば、パターン認識という固い
イメージを意識することなく、かなり高度な処理を実現できます。(^_^)

 このような、センサを活用したComputer Musicをインタラクティブ・アート
として考えてみた場合、センサを利用する局面というのは、いくつもの可能性が
あります。たとえば、もっとも単純には、「楽器代わり」というスタイルが
あります。つまり、パソコンのキーボードを鍵盤楽器のように使うとか、
ブルーワーカー(筋肉鍛錬器具)に仕込んだ「曲げセンサ」で、見る者に
とっても力が入るような「力を入れると音が高くなる」などという(^_^;)
楽器を実現することもできます。MIDIパワーグローブで、ジャンケンの
「グー」「チョキ」「パー」ごとに別々のフレーズを出す、というのは実際に
作品に利用したこともあります。

 これらの例は、直接にセンサからの情報を音楽演奏情報に置き換えたもの
でしたが、さらに「作品のパラメータをリアルタイムに変更する手段」として
の使い方もあります。たとえば、システムがカオスのアルゴリズムに従って
音楽情報を生成している時に、演奏者のセンサからの情報でこのパラメータ
が変更されて、カオスの振舞いが刻々と変化する、という作品も実験的に
発表しています。あるいは、CGやビデオ映像を切り換えたり変化させるために
センサを利用すると、ステージ上の動きとスクリーンとの同期がよくわかって
効果的なようです。

 それから、音楽の進行をセンサによって演奏者に任せてしまう、という
やや危険な(^_^;)活用法もあります。たとえば、ある程度進んだところで音楽
がストップして、パフォーマンスによるセンサ入力を受けて再開するとか、
音楽のテンポや音量をセンサで自在に変化させる、というものです。さらに
進んだ段階では、センサ入力によって自在に曲の別の場所にジャンプして
しまう、などという「自由な構成の音楽」にも応用できます。こうなると、
一旦スタートしてしまった音楽がいつ終わるか、あるいはどう展開していくか
は演奏者の即興Improvisationに委ねられることになり、実際の場としては、
かなりスリリングでテンションの高いパフォーマンスとなります。まさに
テープコンサートとは対極的な雰囲気であり、リスクは判っていても、私は
この緊張感の虜になってしまったところです。(^_^;)

●インタラクティブ・アートと音楽の本質

 ここまではComputer Musicとして述べてきましたが、この方向はそのまま、
ダンサーの舞踏パフォーマンス、詩人のナレーション、CGアーティストの
リアルタイム描画、自然現象センサ(風速、騒音、温度、湿度等)の反映、
などと組み合わせて色々に展開できます。まさにマルチメディア版の、そして
インタラクティブな一種のアートとしてのパフォーマンスというわけです。
そしてさらに、「音楽バーチャル・リアリティ」という視点もここに加わって
きます。つまり、これらのアートを一緒に実現する相手というのは、なにも
同じステージ上にいる必要はありません。インターネットを経由して、地球の
裏側にいても、リアルタイムに参加できるのです。

 ここでは、音楽の持つ時間軸の中で、リアルタイム性がちょっと限界を
見せてきます。自然界でもっとも高速な「光速」(電気信号も電波もほぼ同じ)
であっても、地球の裏側の人と音楽セッションをリアルタイムに行うには
ちょっと遅すぎて、実用になりません。0.3−0.5秒の遅れは音楽の同時性に
おいては致命的な遅延なのです。そこで、インターネットを利用した地球
規模のセッション音楽においては、この制限を考慮した新しいスタイルの
音楽が要求されてきます。この部分は今回の話とはちょっと離れるので
深入りしませんが、興味のある人は考えてみて下さい。(^_^)

 このような、コンピュータ技術を駆使したインタラクティブ・アートと
いうところまで展開してきてみると、実はこれは昔からの音楽スタイルと
同じであった、ということに気付きます。つまり、演奏会のステージの上で
展開されている音楽演奏というのは、コンピュータなど使わなくても
リアルタイムで、インタラクティブで、マルチメディアなものである、と
いうことです。たとえば「ピアノ伴奏のバイオリン独奏リサイタル」とか
「ジャズトリオのライブ」という風景を想像してみて下さい。聴衆はただ
目をつぶって聴いているのではありません。スポットライトを浴びた演奏者
たちの、「生身の肉体の躍動」「視線のからみ合い」「空間に満ちた音響を
聞き合って対話している」というマルチメディアのパフォーマンスを、
まさにリアルタイムで体験しています。演奏者は決してマイクに向かって
録音しているのではないので、聴衆の音楽的期待感をひしひしと感じて
演奏し、素晴らしい演奏に対する賞賛の雰囲気を肌で感じます。手にした
楽器は、どんな高性能センサよりも繊細で柔軟で正確なインターフェース
であり、楽器と音響に対する反応は、どんな高性能コンピュータよりも
芸術的・知的なリアクションを創造します。クラシック音楽であっても、
本質的にはあらゆる種類の即興Improvisationの要素が躍動しています。

 ...結局、まだまだComputer Musicとは「音楽になろうとしている」
段階であるのかもしれない、という初心を忘れることなく、しかし大胆に
実験と挑戦を続けていこう、と思っている、今日この頃なのです。(^_^)

第11話 コンピュータ・ミュージックの先端状況

 今回は、これまでとガラリと変わって、いわゆる「学会」「研究者」という
世界について、まとめて紹介してみたいと思います。具体的には、国内で中心的な
「音楽情報科学研究会」のこれまでの活動や、関連学会・研究会について紹介します。
また、「国内の研究/海外の研究」ということで、ざっと紹介してみたいと思います。
そして最後に、「ICMAとICMC」という、「世界的な究極のComputer Musicオタク
の巣窟(^_^;)」の様子も少しだけ紹介することにしましょう。

●コンピュータ・ミュージック「研究」の歴史

 現在ではハイパワーなコンピュータが誰でも個人で手軽に使える時代となりましたが、
1980年頃までのコンピュータというのは、ごく一部の研究者だけが使える特殊な装置
でした。ところが、ENIACなど最初の世代のコンピュータが登場した頃から、それを
音楽の領域に使ってみたい、と考える研究者はいたわけで、Computer Music研究の
歴史とは、ほぼコンピュータと歴史と同じ長さを持っています。そして、現在では
なんでそんな簡単なことを、と思えるような単純・初歩的な内容から始まって、研究
のアイデアについては、ほぼ1970年頃までには出そろっていたように思われます。
もちろん、ワークステーションや並列コンピュータなどの「実際に実現できるマシン」
が登場するまでは「絵に描いた餅」だったものも多いのですが、具体的に実験できなく
てもアイデアを創造するのは自由、というわけなのです。

 初期のComputer Music研究とは、現代音楽のテープ切り貼り(ミュージック・
コンクレート)や電子音楽の系統から、放送局や大学の計算機センターでの電子音響
システムとしてスタートしました。ここでは、MUSIC Vのように音響生成そのもの
をプログラムしたり、音列生成に乱数のアルゴリズムを使ったり、有名な作曲家
の音楽的要素のフィルタを使った自動作曲などが試みられるとともに、民族音楽
やクラシック音楽のデータペースに計算機を利用する、などというアプローチも
ありました。ただし、大型計算機で数日かけて演算した10分間程度の音響データ
はそのあとでD/A変換してテープ音楽に固定されたり、アルゴリズム作曲の出力の
プリントアウトを人間が譜面に尚して弦楽四重奏が演奏する(^_^;)、というような
「非リアルタイム」なものでした。画面もプリンタもテキスト情報しかなかった
最初は、ある程度の「楽譜印刷」すら夢のようなことだったのです。

 その後、1980年代になってパーソナルコンピュータが出現すると、MMLによる
ビープ音の演奏、85年のMIDI、FM音源とまたたくまに個人ペースのComputer Music
の環境が整備されてきました。ポピュラー音楽の世界でもYMOのようにコンピュータ
を中枢に置いたライブ音楽がドッと広まるとともに、「研究」のいくつかの領域は
その存在意義を失っていきました。いくら研究者が学会で発表しても、それよりも
優れた「製品」が格安で市販されて多くの音楽愛好家が既に使っている、というの
では、まったく「井戸の中」そのもので誰も相手にしない、というわけです。(^_^;)
ちなみに、日本の大学の研究室の中には、まだまだ現役でこのような無駄をして
いるところが少なくない(^_^;)ので、もう少し海外の先行研究を調べて欲しいと
個人的には残念に思っています。

 さて、そして現代につながります。TVのドラマBGMでもCM音楽でも、パソコン
によってスタジオで作られたもの以外はほとんど存在しない、という時代です。
インターネットでは切り貼り音響がホームページ内で鳴り響き、電子楽器メーカの
ヤマハやローランドまでが、企業経営としては自分の首を締めながら、WWW
ブラウザのMIDI演奏プラグインモジュールを世界に無償配布する時代です。
音楽大学の作曲科の学生も、オーケストラ作品の作曲にシーケンサを使います。
音楽はどこもかしこも、コンピュータと縁のないところがないほどです。(^_^;)
このような時代に、Computer Music研究者はなにをしているか、というのが
今回のテーマというわけです。

●現在のComputer Music研究の傾向

 個々の具体的な研究テーマを離れて、筆者が国内・海外のComputer Music研究
のいろいろな領域から感じている「傾向」について、独断で簡単に紹介してみましょう。
上記のような状況で、製品として大量生産・大量消費されるような「ビジネス」に
なる領域というのは、カネをつぎ込める企業にかなわない、というのは当然のこと
です。そこで、研究者は以下のようないろいろなルートをとっています。

(1) 企業がスポンサーになってくれるような、実用的なテーマ(うまくいくと市販)
(2) カネにならない、音楽学・心理学などの基礎的なテーマに徹底する
(3) ポピュラー音楽に背を向けて、実験的・前衛的な現代音楽の領域に没頭する
(4) 情報処理技術として先鋭的な応用テーマ(ニューロ・ファジイ・カオス等)
(5) パソコンではできない、感性情報処理・知識情報処理・並列処理などの領域
(6) 市販されそうもない特殊なセンサ・システム・アルゴリズムに特化する
(7) 需要の少ない、民族音楽・民族楽器・伝統芸能などのテーマに特化する
(8) 楽器メーカが相手にしない、経済性のない楽音合成手法の理論的研究(^_^;)

 ちなみに筆者はどうだ、と言われれば、上記では(3)(4)(6)(8)あたりに該当
します。(^_^;) もちろん、これは全ての傾向を網羅しているわけでもありません
が、やはり「研究」としてはあまり「他でもよくあること」では意味がありません
から、テーマの検討というのは重要なことでしょう。

 上の内容を簡単に補足しておくと、(1)はMITがお得意の戦略ですが、マルチ
メディアねたの応用でコンピュータメーカなどから多額の研究費を獲得し、内容
としてはそれほど斬新でなくても見栄えのするデモンストレーションをします。
(2)は海外でも国内でも地道に続いていますが、音楽情報処理そのものが目的と
いうよりも、音楽学・音楽心理学などの基礎分野での心理実験や統計処理などに
計算機を「利用」する、というアプローチです。(3)は国内ではあまり多く
ありません(音情研関係では、研究をしながら自分で作曲もするのは、筆者と
NTT基礎研の小坂さんぐらい、という説もあります(^_^;))が、海外ではごく
一般的な傾向です。世界のComputer Music研究者の多くが、たとえば音楽
大学を出てからコンピュータサイエンスの大学院を出たり、その逆パターンで
計算機専攻から作曲をさらに学んでいます。そして、ICMCなどの機会に話して
みると、多くの人が個人的にはJAZZやROCKも愛好しながら、Computer Music
作品としてはシリアスな現代音楽を作曲しているのです。(ちなみに、国内の
音情研関係者には、1970年代の「プログレ」愛好者が異常に多いです(^_^;))

 (4)は多くの研究者に共通することで、Computer Music研究のプラット
フォームは、UnixかMacです。UnixではSunとSGIだけでなく、なんと消えて
しまった筈のNeXTがいまだに現役だったりします。Windows95はMIDI環境と
してはあまり能力がないのと、MAXという素晴らしい環境が存在しないために、
研究者の世界ではまったく相手にされていません。まぁ、マイナーなところに
逃げ込んでいる、という指摘も一部は当たっているかもしれませんね。そして
(6)は、いろいろ単発的に発表される「ヘンな楽器」シリーズです。ただし、
この中にはICMC発表から10年ほどしてMIBURIのようにメーカの製品として
登場するものもあり、いろいろな可能性も秘めている、ということも言えます。
(筆者の製作するヘンな楽器を製品化してくれるヘンな企業はないでしょうか)

 (7)は歴史と伝統の長い日本などではお得意のテーマとなります。国際会議
に三味線とか簫とか尺八とかを持っていけば、海外ではほとんど本格的には
研究されていませんから、これはエスニック趣味も喚起して目立つことになり
ます。日本の伝統音楽は世界的にも注目されていますから、テーマとしては
やや安易ながらオイシイ領域だと思います。たとえば尺八を対象としても、
その音響特性や奏法の研究、譜字と楽譜情報の処理(尺八は同じピッチでも
複数の指使いごとに音楽の意味が異なります)、首振り演奏情報をセンシング
するジャイロセンサ、など、国内の複数の研究グループが異なる方向から
アタックしています。

 (8)は最近の「物理モデルシンセ」の相次ぐ製品化で注目されていますが、
Computer Music研究の一つの「王道」として歴史も長く、本格的にこれ
だけに没頭している大御所・若手の研究者も数多いテーマです。いわゆる
「楽音合成方式」というのは数10種類は提案されてきているのですが、現実
に市販の電子楽器で使われているのはわずか数種類なのです。あとは、研究者
のマニアックなこだわり(^_^;)で支えられていますが、地道な研究によって
物理モデル音源のように陽の目を見ることもあります。ちなみに、まだ筆者
はGranular Synthesis音源にこだわっていて、次の新作のために新しい
手法を現在進行形で開発しているところです。(^_^)

●国内の研究者のコミュニティ

 さて、このような多種多様なComputer Music研究を行っている研究者の
コミュニティですが、国内では日本音響学会の「音楽音響研究会」、通称
「MA研」がその最初のもののようです。ここでは、自然楽器の音響生成の
分析などの領域がもっとも中核となって、日本の楽器メーカもアコースティック
楽器の音響解析や設計への応用などに寄与しています。今年の2月には、
浜松でのMA研例会に「楽器メーカ各社を全て呼んで発表してもらう」と
いう画期的な(^_^;)企画があり、ヤマハ・ローランド・カワイ・コルグの各社
が研究者を前に発表していました。これまではメーカの関係者は発表せずに
ただ黙って研究会に参加して帰る(^_^;)、ということばかりでしたから、
これはなかなか凄いことだったのです。

 そして1987年頃から、主にMA研と情報処理学会あたりの若手研究者や
音楽研究者などがスタートさせたのが、私的団体の「音楽情報科学研究会」、
通称「音情研」でした。筆者は1988年末からの参加なので初期のことは
よく知りませんが、1989年から今年まで毎年、好例の「夏のシンポジウム」
という合宿では欠かさず連続発表していることもあり、1989年以降について
は自分の活動の一つの中心、という意識があります。音情研のいいところは、
大御所の先生も若手の学生も、あるいは計算機の専門家も音楽専門家も、
企業の技術者も個人の音楽愛好家も、全て区別なく対等に議論できる、と
いう「権威のなさ」にありました。国内の主な大学の研究室も参加し、
楽器メーカ関係者や作曲家・演奏家も参加した、なかなかユニークな会
だったと思います。それまでの「北米・欧州交互開催」だったICMCを
初めて、日本で1993年に開催しましたが、この実質的な検討・運営の
裏方も、ほぼ音情研の幹事グループそのものだったのです。

 しかし、その後、音情研も大きく変貌しています。会員が300名近い規模
になって、それまでのポランティア的なスタッフでは事務局機能が不可能と
なってきたこともあり、次第に情報処理学会に近寄っていきます。最初は
「研究グループ」として補助をもらい、ついに1993年には情報処理学会の
正式な「研究会」となりました。音楽情報科学、というテーマで研究会と
して認められるまでには、それまでの多数の全国大会での発表などの活動
実績が「研究領域」として認められた、という重要な意義があります。
それまでの私的団体の「会報」が正式な研究報告として残り、事務作業も
学会が行ってくれるようになりました。しかしこの一方で、いわゆる
「音楽サイド」と言われる演奏家・作曲家・音楽学者・音楽心理学関係者
などにとっては、次第に音情研が「敷居の高い」ものとなって、かなり
この方面メンバーが減っています。これは音情研としては当面の課題と
して、検討されているところです。

 音情研に続いて、1989年に京都で第1回音楽知覚認知国際会議を開催
したのを機会に、日本音楽知覚認知研究会、通称「音知研」という団体
もできました。ここは、音楽心理学・音響心理学・音楽学・認知科学
などの領域の国内の研究者が数多く参加しています。もちろん、MA研や
音情研にも参加している人もたくさんいます。(^_^)
筆者も昨年は、Granular Synthesisネタで発表しましたし、研究システム
で協力した音楽心理学テーマの発表に名を連ねたこともあります。この
研究会では、コンピュータは目的というよりも手段として活用されている
ように思います。なお、音知研は昨年、なんと正式な「学会」になって
しまいました。現在では日本音楽知覚認知学会ということで、通称は
「音知学会」ということになっています。(^_^;)

 1993年には東京でICMCが開催されましたが、主に海外での活動を中心と
した日本人の作曲家グループを中心に、「ICMCの開催母体であるICMAの
日本支部のような団体を作ろう」という機運が高まり、ICMC1993と相前後
して、「日本コンピュータ音楽協会」(JACOM)という団体もできました。
これは、情報処理学会寄りにシフトしてきた音情研の「音楽サイド」の
人たちの一部の受け皿ともなっています。現在のところは作曲家と演奏家
が中心ですが、研究者・技術者・一般の音楽愛好家にも門戸を広げている
ところです。最近では音情研よりも先にホームページやメイリングリストを
開設して頑張っていますが、活動はコンサートが中心で、やや「学会」
とは違っているようです。

●世界の研究者のコミュニティ

 さて、それでは世界ではどうか、といえば、これはもうICMA(International
 Computer Music Association)が開催するICMC(International Computer
 Music Conference)がなんといっても中心です。そこで、まず「それ以外」を
先に片付けておきましょう。

 IEEEという、世界最大のエレクトロニクス/コンピュータ技術関連の学会が
あります。ここでも最近、日本の音情研のような流れがありました。ICMAの
関係者とも重複しているメンバーが、「Computer Generated Music」という
タスクフォース(日本で言えば「研究グループ」みたいなもの)を組織してIEEE
から認められ、IEEE会員の中で興味のあるメンバーと2年ほど会報を出したり
CDを出して盛り上げたのですが、ついにテクニカルコミッティー(日本の
「研究会」でしょうか)に昇格しました。これはつまり、世界でもっとも
権威ある学会でもComputer Musicが正式に認知された、という喜ぶべき
ことでもあるのです。(^_^) まだ、TC-CGMの具体的な活動はあまり目立って
いませんが、IEEEのTCが国際会議を開催したら、ここでの発表は研究者に
とってICMCよりもはるかに意義がありますから、ICMCの強力なライバルと
なることと思います。(^_^;)

 そして、なんといっても「Computer Musicオタクの殿堂」(^_^;)、ICMC
です。筆者は1991年のモントリオール、1992年のサンノゼ、1993のトウキョウ、
1994年のオーフス(デンマーク)、1995年のバンフ(カナダ)、と5年連続で
参加しましたが、今年1996年のホンコンは、残念ながら応募論文がreject
されて留守部隊となってしまいました。情報処理学会全国大会のように
「応募すれば発表できる」形式的な場と違って、ICMCのペーパーは平均して
3倍程度の審査があり、英語に弱い日本人は、うかうかしているとこの難関に
ひっかかる人も少なくありません。国内と違って研究の状況はまさに先端を
行っているのがICMCなのです。(^_^;)

 ICMCの特徴を一つだけ紹介すると、研究発表のペーパーセッションと、
作品発表のコンサートセッションが対等に満載されている、というものが
あります。筆者は毎年、朝9:00から始まるペーパーに参加し、11:00頃から
最初のコンサート、午後はまたペーパーセッション、夕方にコンサート、
そしてさらに夜にコンサート、場合によっては23:00頃から深夜のコンサート
が25:00頃まであります。これをずっと、4日間とか5日間、続けます。参加者
は音楽家もペーパーに参加し、研究者も全てのコンサートを堪能し、夜には
宴会をしながら、まさに「クレイジー」な1週間を過ごします。これは言葉
では伝えられません。知りたい人は来年、一緒にギリシャ(テッサロニキ)に
行きましょう。(^_^)

 さて、紙面も限られてきたので、ICMCの詳しい話は、筆者が毎年記事を
書いてきた「bit」誌でも参照してみて下さい。今年のホンコンのレポート
も、音情研の幹事の誰かが「bit」誌に書いている筈です。とにかく、世界の
Computer Musicの先端状況を知るには、ICMCの論文集Proceedingsをきちんと
フォローしておく必要があります。MIBURIを発表したヤマハが、関連した
特許をドカッと出願していたのは、各機関の身振り関連センサの研究発表
が集中したある年のICMCの直後でした。(^_^;) 国内で世界から10年とか
15年遅れた研究発表を平気で続けている某大学某研究室もまた、誰でも
入手できるこのProceedingsは最低限、チェックしてみて欲しいと思います。

 なお、1994年のICMCレポートについては、Niftyの音情研の会議室に
130KBほどのレポートが置かれています。これはICMCの現場で、同時進行
として携帯した「(電子手帳をハックした)パソコン」で執筆したもので、
成田に帰国する飛行機の中で完成していた、というものです。ちなみに、
この記事もbitの記事も、全て筆者のホームページのどこかに埋没して
います。(^_^;)

 ...ということで、研究者もまた、貧弱な文教予算と体制の中で頑張って
います。音情研にしてもICMCにしても、熱心なアマチュアを含めて誰でも
参加できる、と門戸を開いています。筆者も、今回の記事で紹介した組織
のうち会員でないのはMA研だけであとは全て会員ですので、入会について
の情報も持っています。質問はNiftyのFMIDIUSRの19番会議室でいつでも
お答えできますので、興味のある皆さんは、どうぞ積極的に参加してみて
下さい。筆者がサラリーマンから独立してComputer Musicを中枢に置く人生に
切り換えたそもそものきっかけも、音情研の陰のボス、坪井さんに出会った
ことに集約されるのです。(^_^;)

第12話 これからのコンピュータ・ミュージック

 さて、1年間以上にわたって続いてきたこの連載も、今回で一応の最終回と
なりました。「一応の」というのは、このテーマに関連した企画を編集部でも
何か検討しているので、またいずれ、新しい形でお会いできるかもしれない、
という可能性があるからです。(^_^)

 最終回といっても、教科書の最終章のように「まとめ」とできる領域なら
ともかく、Computer Musicの世界は日々、新しい可能性に向かって進展して
いますから、別にまとめることもありません。そこで、今回は「これからの」
というお題として、筆者がいろいろなアイデアを書き並べてみることにします。
キーワードは「アマチュアの時代」ということでしょうか。読者の皆さんの中に、
一人でも何か興味をもって新しいことにトライする人が出てきてくれれば、と
期待しています。(^_^)

●MIDI機器をオリジナル製作しよう

 この連載も終盤に入った1996年8月から9月にかけて、筆者が議長をしている
Nifty-ServeのFMIDIUSR「音楽情報科学の会議室」で、なかなか面白い動きが
ありました。なんと、秋葉原で簡単に入手できるマイコンボードを使って、
オリジナルのMIDIセンサを自作してしまおう、というプロジェクトがスタート
し、現実にアマチュアの製作したマシンが稼働してきたのです。(^_^)

 これまでにこの連載でも書いてきたように、筆者は既に数十種類のオリジナル
MIDI機器を製作して自分の作品に使用したり、国内外の作曲家や音楽家の手に
渡って、いろいろな場所で活躍しています。しかし、これは普通の音楽愛好家
には、ちょっと手の届かないエレクトロニクス技術の領域で、なかなか踏み込め
ないものでした。たとえば、筆者にとって現代音楽の師匠である作曲家の中村
滋延さんとの付き合いでは、中村さんの新作に欲しい新コンセプトをメイルで
受け取って、筆者はここではエンジニアに徹して、リクエストに応じた新しい
マシンを製作して提供してきたのです。

 ところが、秋葉原にある秋月電子(大阪・日本橋の共立電子も同様です)
では、カードサイズよりも小さなマイコンボードのキットや各種のセンサキット
を販売しています。このカードマイコン(AKI-80)は、たった3800円なのに、
中身は昔のパソコン以上の処理能力があり、複数系列のセンサ情報や2系統の
MIDI情報のマージとかフィルタリングなどなら、お茶の子さいさいで(^_^)
軽くこなしてしまいます。筆者のオリジナルマシンの大半も、AKI-80を使った
もので、すでにMIDI処理マシンとしての基本パターンはハードウェアもソフト
ウェアも完備していて、新しいマシンを2-3日で作れる体制になっています。

 そこで、会議室のメンバーの横浜の山口さんという方が実験台となり、AKI-80
を仕入れて回路製作し、私がCPUプログラムを書き込んだEPROMを送って、まず
最初に「MIDIイベントフィルタ」を完成しました。そしてさらに、A/D変換の
ICを増設して、秋月電子のROMライタキットまで製作して、最後には私が会議室
の記事として載せたEPROMプログラムを利用してシステムを完成させました。
山口さんはマイコン技術などの世界はアマチュアなのですが、それでもノーミス
でいきなりMIDI機器の製作に成功してしまったのです。

 このマシンの仕様は、「6チャンネルのアナログ電圧を入力して同時にMIDI
変換して出力」「MIDI入力もセンサ情報とマージして出力」というものです。
ここには、市販のセンサキットでも、大型スライドボリュームでも、なんでも
接続して同時に6系列、MIDI出力します。楽器制御もよし、インスタレーション
に使用して来場者の動きをセンシングするもよし、自然界の物理情報を
検出して(風速、温度、湿度、圧力、騒音、放射能(^_^;))アクティブな
サウンドスケープを作るもよし、と可能性は無限です。(^_^)
ニクロム線を1メートルぐらい張って両端に電圧をかけ、その途中で金属の
指サックをスライドさせてその地点の電圧を取り出せば、これだけで
1弦琴のできあがりですが、これはIRCAMの作曲家が1997年のヨーロッパツアー
で筆者のマシンを使うためにトライしている方法の一部です。

 ここで注目すべきことは、このマシンが完成するまで、筆者は山口さんとは
一度もお会いしていない(^_^;)、ということです。電子会議室(と電子メイル)
だけでマシンが完成し、アマチュアには苦手なCPUのソフトウェアだけは筆者が
開発したものを「インテルHEX形式」というバイナリデータとして記事に
書くだけで、あとは山口さんの手元でオリジナルのMIDIマシンが完成した
のです。インターネットの時代、次には世界を相手にしたプロジェクトに
展開してもいいのですが、残念ながら、AKI-80は海外からは通信販売で入手
できないことだけが難点です。(^_^;)

 このように、MIDI機器というのは電子楽器メーカが提供する仕様に制限
される、というのは幻想であることが立証されました。アイデアやコンセプト
があるのに欲しい道具がない、という場合、MIDIをMAXで処理すればソフトウェア
の部分のアルゴリズムはまったくアマチュアの自由となりました。そして、
ハードウェアの部分もまた、必要な道具を作ってしまえる、というAKI-80の
ようなカードマイコンには注目したいと思います。(ちなみに、各種のオリジ
ナルMIDI機器の製作例やソフトウェア開発環境の自作とともに、話題のJavaで
AKI-80のソフトウェアを開発してしまおう(^_^;)、というコンセプトの筆者の
新しい本「JavaでAKI-80」(CQ出版社)が、1997年1月末に刊行予定です(^_^))

●MAXで世界の最先端に迫ろう

 さて、熱心なアマチュアがComputer Musicの世界で専門家を越えることも
可能である、という領域はあるでしょうか。実は、そこら中にあるのです。
もともとComputer Musicの歴史の中で、専門家とアマチュアとを区別していた
のは、大型の汎用計算機を使用できるかどうか、という研究者の環境という
壁でした。そして少し前までは、大学などのUnixワークステーションでなければ
十分な研究にならない、という壁もありました。アマチュアに手の出るのは
低機能のパソコンと、メーカの製品として自由な可能性を封じた電子楽器だけ
だったのです。

 しかし現在、あらゆる場面がこの壁を打破しようとしています。まず
コンピュータについては、一般のPentiumパソコンやPowerPCパソコンの処理能力
が、大学にあるちょっと古いワークステーションを越える(^_^;)ことが一般的に
なってきました。Unixはまだまだ研究者の世界では標準ですが、マルチメディア
処理の分野では、既にパソコンOSよりも遅れてきている領域が少なくありません。
筆者の自宅のシリコングラフィクスのIndyというワークステーションのサウンド
能力(16ビットステレオ48KHzサンプリング)というのは、パソコンでも当り前
の標準スペックとなって、筆者のハードディスクレコーディング容量4.5GBと
いうのも、既にパソコンと同等になってしまっています。(^_^;)

 人間のパフォーマンスをセンサで検出するところにMIDIを使っていれば、
これはむしろパソコンの方が得意なぐらいです。パソコンでMIDI処理の
プログラムをC言語で書くことも一般的ですし、なんといってもMacユーザ
には「MAX」という最終兵器があります。(^_^) MAXによって、プログラミング
の壁からアマチュアが解放され、自由なアイデア、自由なアルゴリズムによる
Computer Musicへのアプローチが可能となったのです。

 さて、ここで再びNifty-ServeのFMIDIUSR「音楽情報科学の会議室」の話題
を一つ、紹介してみましょう。会議室のメンバーである京都の照岡さんは
ここでMAXと出会い、ローランドの音源モジュールを使って、なかなかユニーク
なアイデアで実験しています。複数のパーシャルをあるアルゴリズムで生成
させて、MIDI音源に「歌わせる」、つまり音声合成にチャレンジしているのです。
内蔵音色の「Ahh」「Uhh」などを使うのではありません。サイン波形を合成
するアルゴリズムをMAXでプログラミングしているのです。このアイデア
そのものは、Computer Musicの研究の世界では決して新しいものではないの
ですが、もしかすると世界の誰も気付かなかった新しい「何か」が出て来る
可能性も否定できない、と議長の筆者は会議室上でコメントしました。(^_^)
アマチュアが入手できる機材でも、MAXによって、先端の研究にチャレンジ
できる時代となっているのです。勝負はアイデアと音楽性、それだけです。

●インスタレーションとサウンドスケープ

 最近のICMCの作品発表の一つの傾向ですが、サウンド・インスタレーション
が増えてきています。ここでのインスタレーションというのは、造形作品とか
ビデオ作品とComputer Musicとを組み合わせたもので、一般に何らかのセンサ
を取り込んだものが多いようです。たとえば、ギャラリーに展示されている
インスタレーション作品に来場者が近づくと、センサがその近接を検出して
音が出たり映像が変化したりする、というのが典型的なものです。

 もちろん、ドラムパッドやマウスなどの具体的な入力装置を含めたシステム
という形態をとることもありますし、逆に風見鶏でその場の風向きをセンシング
するようなものもあります。香港のICMCで大阪芸大の上原和夫さんが出品した
作品の場合、ガイガーカウンタでその場の放射能をセンシングして音を出した
そうです。(^_^;) これまでのICMCでも、サウンド・インスタレーションは
室内である必要はなく、鉄骨などを海外から持ち込んで野外に建設(^_^;)した
例が少なからずありました。

 このようなサウンド・インスタレーションでは、作品を鑑賞する人がその
音響の生成そのものに関与したり、あるいは温度や騒音など、その場の環境
によって状況が変化する、という特性があり、演奏会のステージ、という
形式のComputer Musicとはまた別の面白さがあります。もっとも、筆者の
作品「Muromachi」(CGソフトでのお絵描き情報で音楽を生成する作品)の
ように、最初はコンサート形式で作られた作品がインスタレーションとして
発展する場合も、逆にギャラリー展示のインスタレーションからコンサート
形式の作品に進化する場合もあります。このあたり、発想を柔軟にして
自由にアイデアをふくらませるのが重要だと思います。

 そして、ランドスケープのサウンド版であるサウンドスケープについても、
単に環境音響を自動再生・自動生成するだけでなく、ここにセンサを応用した
一種のサウンドインスタレーションとも言えるものが増えています。たとえば
人間の赤外線を検出する近接センサによって、環境音がリアルタイムに、
あるいはインタラクティブに変化するもの、カオスやフラクタルのアルゴリズム
に従って自動生成されるサウンドスケープに、一種のノイズのように秩序を
乱す要素として、来場者のセンシング情報を反映させる作品などがあります。

 このような作品の裏に回ってみると、ここでも多くのセンサとMAXが活躍して
います。なにかセンサ技術というとおおげさですが、市販の電子工作キット
で一度作ってみるとわかりますが、なんてことはないのです。(^_^;)
また、センサに所定の入力を入れるだけでなく、適当に周囲の信号を与えたり、
あるいは額に押し付けて「脳波」でもセンシングしてやると、これは新しい
何かが生まれて来る可能性の宝庫であることがわかります。要は、新鮮な
目で周囲を見回すこと、何でも音楽になりうるのがComputer Musicなのだ、
と理解することなのです。(^_^)

●ImprovisationとComputer Music

 筆者のComputer Music作品では、たいていの場合、演奏者にはかなりの
アドリブを求めることにしています。シーケンサに固定された音楽演奏を
「再生」するだけ、というスタイルの音楽にはまるで興味がない(^_^;)ので、
演奏するたびにいかに異なる音楽になりうるように作曲するか、というのは
暗黙のルールになりつつあります。

 コンピュータは、もともと「仕組まれたように正確に再現する」のは得意
ですが、それをそのまま進めていったのでは、人間の演奏者の創造性を殺して
しまいます。テープ音楽のBGMに合わせて、いかに芸術性豊かな独奏をしても、
筆者にとってはこの一種のカラオケは容認しにくいところがあります。
ライブ演奏としてはリスクが多いものなのですが、音楽の進行のどこかの部分
が演奏者に委ねられているような音楽をというのを当面は指向していくと
思います。これまでの作品でも、演奏者がセンサを操作して再スタートするまで
Computer Music全体の進行がストップして待つもの、シーンの進行を演奏者に
任せたもの、用意された中から生成される音響の種類は演奏者のアドリブに
任せたものなどがありました。

 この延長として筆者が注目しているのが、Computer Musicでの即興Improvisation
です。「サイバー・キッチン・ミュージック」の著者、Yuko Nexus6(北村祐子さん)
のライブでは、最初にステージ前にマイクが置いてあり、来場者に自由に叫んで
もらったフレーズをサンプリングした素材をリアルタイムに処理して鳴らす、
という作品がありました。複数のメンバーがステージ上でMAXを使ってバトル
を交わす、というライブもなかなか刺激的でした。(^_^)

 筆者が現在、研究テーマとして取り組んでいるものの一つは、ネットワーク
接続された24台のIndyで、全体として音楽演奏を形成するような巨大なセッション
のシステムです。もちろん、ここではImprovisationが最大のキーワードです。
まだ途上なので詳細はこれからなのですが、個々のIndyの中で走る音楽生成
プロセスに対して人間がアドリブで対話し、これらの情報が全体としてネット
ワーク上でセッションするようなことを考えています。もちろん、こんなソフト
は売っていないので自分で書かなければいけませんし、場合によってはセンサも
自作となります(^_^;)が、なんか面白いことができそうな気もします。そして、
最初は研究としてですが、いずれアイデアが練れてくれば、これが作品として
コンサート、あるいはインスタレーションとしてまとまるかもしれません。
Computer Musicとは、研究と実験と作品制作とがもやもやと一体化したもの
なのかもしれません。(^_^;)

    -  -  -  -  -  -  -  -  -  -  -  -  -  -  -  -

 どうぞ皆さんも、MIDIのDTMだけでなく、こんなヘンな世界にも目を向けて
いただけたら幸いです。(^_^;) 御愛読ありがとうございました。