インタラクティブ・アートにおけるアルゴリズム作曲と即興演奏について 1. はじめに 音楽には色々なコンセプトとスタイルがある。音楽を創作する側にも、演奏する 側にも、聴取する側にも、それぞれの関わり方があり、その全てが音楽の要素 である。本稿では、現在のところ筆者の音楽的活動の中心にあるComputer Music の世界において、どのようなコンセプトやスタイルの音楽にこだわっているか、 について、具体的に作曲・公演してきた実例とともに紹介していきたい。 2. 即興と自動作曲 2.1 クラシックの「即興」 伝統的なクラシック音楽においても、あるいはジャズやポピュラーや民族音楽の 演奏においても、「即興」は常に重要な音楽的要素である。作曲家が楽譜で示す 音楽の姿をなるべくそのままに忠実に再現する「ロボットのような演奏」が至上 であるならば、DVDなど高品位の音響映像記録システムの発達した現代であれば、 「最上の音楽演奏」を記録したDVDがあれば、もうコンサートなど不要だ、という ことになってしまう。音楽とはそんなものではない筈である。ところで、本学の 音楽科学生の多くは、筆者の講義で「音楽における即興」というテーマで問われ ると、「即興は苦手です。私にとって、レッスンで指導された演奏を忠実に実現 することが重要です」と発言する。より一般のクラシック音楽の世界でも、まず 楽譜という規範があり、所謂「芸術的逸脱」とは、その楽譜の解釈と演奏家の感 性に従った「節度と気品のある即興」というところに重点があるようである。 2.2 ジャズの「即興」 ところがジャズやロックやポピュラー音楽の世界では、楽譜の「アドリブ」という パートには、即興で変奏すべき元の音など記載されていない。演奏すべき音(ピッ チ、リズム、フレーズ、コード、アーティキュレーション、アクセント等々)の 全てが演奏者の即興に任されているのである。クラシックの演奏家の中には、この ような楽譜を突きつけられると「アドリブ部分を楽譜に書いて」と依頼する事があ るのも事実である。コード等の枠組みが比較的決まっているポピュラーに比べて、 ジャズではさらに自由になり、リフレイン以外の繰り返し構造、あるいはコード 進行そのものまで演奏者同士の即興で決められつつ演奏が進行していく。ここでは 「手」だけでなく、「耳」と「勘」の優れた演奏家でなければ生きていけない。 2.3 古典的コンピュータミュージック そこで、いよいよ筆者の活動の中心であるComputer Musicの世界である。ビジネス シーンを中心として、一般的なコンピュータ音楽の作曲と言えば、「MIDIで表現 される音楽演奏情報をシーケンスデータとして制作・編集する」という作業で ある。MIDIについてはここで詳解する紙面がないので、興味のある方はインター ネットで「MIDI」というタームを検索されたい。ポピュラー音楽、テレビ番組や ゲームやCMのBGM、カラオケの曲データ、などなど、MIDIベースの音楽は既に産業 として巨大な存在となっている。その基本はシーケンサの本質である、「確実に 何度でも同じ演奏が再現される」という点にある。クラシック音楽の世界でも、 最近は音楽大学作曲科の学生がシーケンサでオーケストレーションの作曲演習を 行うのが普通になっているが、このメリットの活用例であろう。 このような音楽は、Computer Musicの分野では「ノンリアルタイム音楽」あるい は「テープ音楽」と呼ばれている。何度でも完成度の高い同じ演奏を再現するの なら、DATとかCDとかに、演奏の録音をディジタルの音響データとして固定して しまい、これをHi-Fiのモニタで聴取すればいいのである。記録媒体に固定する ことで時間的空間的制約を越えて残っていく、というメリットの代償として、 この種の音楽は「演奏の場のリアリティと偶然性」を完全に失っている。そして コンピュータ音楽のコンサートにおいて、テープ音楽作品を「公演」する時は、 ホールの聴衆の前のステージは無人で、ただ全員が会場の音響システムで「再生」 されるサウンドに耳を傾けることになる。ようやくこの世界に慣れてきた筆者で すら、今でもこれはかなり退屈なことが多い。 2.4 アルゴリズム作曲 ところで「アルゴリズム作曲」という場合には、一般にこれとは発想の異なる アプローチをとる。つまりモチベーションとして「毎回、どこか異なった演奏 となる音楽」「その場の状況に応じて変わる音楽」を、しかし作曲として構築 したい、という姿勢である。生身の人間の演奏であれば、ジャズのアドリブとか でなくても、クラシック演奏でもその場限りという性格を持つ。しかしここで は、微妙な演奏表現のレベルよりももっと大きく、音楽演奏情報そのものが演奏 のたびに変わるような「仕組み」、すなわちアルゴリズムを構成するという作業 として「作曲」をとらえるのである。 この分野でもっとも古典的には、モーツァルトの「さいころ音楽」やケージの 音楽のように、「乱数」や「易学」をベースとした統計・確率の音楽という アプローチがある。コンピュータにとって乱数や確率的な情報の生成はお手軽 なものであり、ここに様々な和声的・リズム的・構成的な「制約」を作用させる ことで、「そのたびに異なった音楽情報」を生成することは容易である。1950 年代には、その最初の「イリアック組曲」が作曲され、コンピュータの演算出力 の楽譜に基き人間の演奏家によって演奏されている。最近の流行としては、この テーマとして「カオス」「フラクタル」「遺伝アルゴリズム」「ファジイ」等の コンピュータ科学での新しい概念が利用されている。また、自然界において変動 する種々の現象を「時間的に変動するもの」として音楽に焼き直す、という手法 にも歴史がある。最近でも、植物の細胞の微小信号、宇宙から飛来する宇宙線、 人間の脳波やホルモンの変動、大気中の有害物質の濃度変化、DNAの遺伝子配列、 風速や温度や湿度や地磁気の変化、さらには世界的な株価変動などのマクロ社会 現象までが、そのデータを時間的に配置することで「***の音楽」として発表 されている。 筆者がこのところ毎年のように参加しているICMC(International Computer Music Conference)においては、このようなコンピュータと音楽に関係した 世界中の研究の報告、そして実際に作品という形での作家の発表が行われて いる。上記のような「自然を表現する音楽」というのは、一種の体験型造形物 である「サウンドインスタレーション」という部門であり、コンサートとは 別に立派なジャンルとして確立している。コンピュータの処理能力の向上と ともに、実際にその場でリアルタイム処理により音楽をライブ生成できるよう になっている事がその背景にある。しかし現在のところ、筆者はこの分野には あまり重点を置いていない。 2.5 インタラクティブ・アート 筆者は楽器演奏や指揮という音楽的経験から、音楽におけるライブ性と即興性に こだわっているのである。その一方で、コンピュータによる「人間の感性の拡大」 という可能性にも興味がある。その結果、インタラクティブ・アートと呼ばれる ジャンルでの創作が現在のところの中心となっている。これは「ステージ、ある いはパフォーマンスに注目した視点」に立脚する音楽への姿勢と言うことが できるかもしれない。ここが、本稿で述べたいことの中心である。もともと音楽 演奏というのは、ソロ演奏であっても対話的(インタラクティブ)なものである。 自分の演奏によって空間に生成される音響を演奏者自身がフィードバック体感 している上に、コンサートであればその場の音響を共有している聴衆の「気」、 つまり期待感や緊張や興奮、というのは演奏者も一体となって体感するもので あり、ここにライブ音楽の醍醐味がある。しかし、以下のような視点から、さら にComputer Musicとパフォーマンスについてこだわっているのである。 3. Computer Musicとパフォーマンス 3.1 「パフォーマンス」の役割 筆者は現在のところ、おもに自分の作曲において、Computer Musicにおける パフォーマンスの役割としては以下の3タイプがあると考えて、作品によって いずれのスタイルでいくか、を構想段階から検討し、使い分けている。この 分類自体が一つの筆者のスタイルというか個性である点には注意されたい。 3.1.1 固定的な背景音響パートとPerformer あらかじめ制作された電子音響パートをDATやCDに固定して「再生」し、 事前に楽譜とともにこれを十分に吟味・解釈したPerformerが「演奏」する、 というスタイル。Performerは伝統的なアコースティック楽器、あるいは ミブリやMIOBUSE等でMIDIシンセサイザ音源を鳴らす、というだけでなく、 ダンスをCCDで画像認識してこれに応じた楽音合成を行うようなものまで 含まれる。音楽としての「一期一会」性は、Performerの即興に委ねられる。 3.1.2 広義のシーケンス伴奏パートとPerformer 背景音響パートの部分を、MIDIシーケンスやサウンドファイルの生成プロセス の多重起動スクリプトなどの情報として、演奏の場でリアルタイムに制御する タイプ。Performerは独奏パートの演奏だけでなく、自動伴奏パートに対する リアルタイム制御情報も生成することで、テンポ、音量、エフェクト、画像 切り替え、アルペジオの音数、等の「変奏」を即興的にコントロールできる。 自動伴奏パートがパターン認識によってPerformerの「意図」を解釈して対話的 に追従するものまであるが、基本的な大きな音楽演奏の枠組みはシーケンス 情報として決められている。 3.1.3 アルゴリズム作曲環境とPerformer 音楽演奏の個々の情報をシーケンス情報のように持たず、リアルタイムに その場で生成していく「アルゴリズム」のみを制作するという作曲。この ため、具体的なエンジンとして、乱数、カオス、GA、ニューラルネット、 楽典、などのルールを組み込む。Performerからの情報はこのリアルタイム 作曲アルゴリズムのパラメータとして反映されるため、極端には「戻る」 「停止」「終了」などの構造的な要素までステージ上の即興に委ねられ、 音楽としては演奏のたびに、細部の音構成だけでなく、繰り返しなど全体の 構成まで大きく変化することがある。 3.2 パフォーマンスやステージの意義 現在のところは、筆者のComputer Musicの作曲においては、コンサートの場で のパフォーマンスがあり、その場に居合わせた聴衆にのみ伝わればいい、という のが基本スタンスである。後日、記録ビデオの再生によって紹介しているのは、 作品そのものではなく、事実の報告だけである。ステージとは、ギャラリーで 展示しているインスタレレーションとは時間の質がまったく異なる。演奏者も 聴衆も作曲家もその場では、ストップもやり直しもきかない真剣勝負の一瞬を 共有する。「失敗」も一つの「演奏」である。一方、テープ音楽のように何度 でも納得いくまで練り上げられる部分については、CDパートやトリガされる サンプルサウンドとして固定して、ライブ作品の一つの要素として活用する。 同じ空間の音響振動をその瞬間に共有していることの意義(おそらく精神的に あるチャンネルで共鳴・交信していると考えられる)はとても大きいと考えて いる。 3.3 実例紹介 このような視点から、筆者が過去に公演した作品の実例の中のいくつかについて、 「Computer Musicとパフォーマンス」の関係ということで分類しながら簡単に 紹介する。なお、個々のテクニカルな用語などについては、個別に詳解する紙面 がないので、興味のある方は、共立出版bit別冊「コンピュータと音楽の世界」 (長嶋・橋本・平田・平賀編)を出版したところなので、この本をぜひとも参考 にされたい。国内だけでなく世界的にこの世界で活躍する研究者と音楽家に執筆 を依頼した大変な力作であり、日本の音楽情報科学分野で今後10年間の教科書と して通用するものである。筆者も、研究者と作曲家の両方の立場で寄稿している。 3.3.1 「Chaotic Grains」 作曲1992-93年 、初演1993年2月11日『電楽II』、東京・十字屋ホール、 ピアノ:藤原あや乃、指揮:長嶋洋一 背景音響パートはオリジナル音源(Granular Synthesis)を含むMIDI系 へのシーケンス情報として固定され、一部はコンソールの作曲者によって リアルタイム演奏された。ピアノは完全にアコースティック楽器として 独奏した。個々のフレーズはカオスによって生成したが、どこがカオスか 判らなかった、という感想が一般的だった。(パターン3.1.2) 3.3.2 「CIS(Chaotic Interaction Show)」 作曲1993年、初演1993年9月16日『知識工学と芸術に関する国際ワークショップ・ コンサート』、大阪・ライフホール、パーカッション:花石真人、CG:由良泰人、 指揮:長嶋洋一 背景音響パートはMIDIベースのシーケンス情報であり、MIDI音源とMIDI制御 のリアルタイムCG(AMIGA)を駆動する。ステージ中央のMIDIドラムパッドに 立ったPerformerはランダムを使用した背景リズムを聞き足元のCGモニタを 見て即興演奏し、この情報に基づいて独奏サウンドとリアルタイムCGが生成 された。(パターン3.1.2) 3.3.3 「Muromachi」 作曲1994年、初演1994年5月27-28日『眼と耳の対位法』、京都・関西ドイツ文化 センターホール、パフォーマンス:八幡恵美子、CG:由良泰人 作品3.3.2を受けて、サウンド系とCG系の主従関係を逆転する、というコンセプト によって作曲した。ステージ中央にはAMIGA上の「MIDI出力CGソフト」を用いて ペンシル型マウスで「お絵描き」するPerformerが立つ。このマウスの操作に 対応した背景音響パートと個々のサウンドが演奏された。メニューの画面消去 コマンドは背景シーンを変更し、またPerformerがノッてきて次のシーンに 進まなければ永遠に終わらない、可変長の音楽となった。(パターン3.1.3) 3.3.4 「Strange Attractor」 作曲1994年、初演1993年11月6日『コンピュータ音楽の現在(日本コンピュータ 音楽協会)』、神戸・ジーベックホール、ピアノ:吉田幸代 全編にカオスのアルゴリズムを使用し、背景パートのアルペジオ等もスクリーン 上のCGも、プリピアードピアノを叩いたり物を投げ込むPerformerのトリガから 与えられて生成した。Performerは刻々と変化する背景音響のカオスの周期を 耳で聞いて、その分割数を知覚できたら次に進む、というような楽譜の指示を 行った。(パターン3.1.3) 3.3.5 「Virtual Reduction」 作曲1995年、初演1995年10月8日『音・電子メディア』、東京・ドイツ文化センター ホール、詩:千歳ゆう、Vocal:佐々木潤哉、指揮:長嶋洋一 素材に「声」を用いた初めての作品。背景音響パートはオリジナルソフトを 用いて信号処理した「声」をDATに固定した。ステージ上ではVocalと指揮者が 即興的に対話し、エフェクタのパラメータをリアルタイム制御した。 (パターン3.1.2) 3.3.6 「David」 作曲1995年、初演1995年10月20日『日独メディア・アート・フェスティバル』、 京都・関西ドイツ文化センターホール、パフォーマンス:藤田康成、CG:由良泰人 MIBURIを着たダンサーのPerformanceをセンシングして、サウンドパート およびOpen-GLによるリアルタイムCGの生成を制御した。背景音響パートは シーケンス情報としてでなく生成アルゴリズムとして記述され、Performerの 情報によって同じテンポでビートを3/4/5分割するパートを即興的に行き来 した。(パターン3.1.3) 3.3.7 「Asian Edge」 作曲1996年、初演1996年7月13日『コンピュータ音楽の現在II(日本コンピュータ 音楽協会)』、神戸・ジーベックホール、パフォーマンス:吉田幸代、CG:由良泰人 背景音響パートにMIDI音源系のシステムでなく、事前に信号処理した多数の サウンドファイルをMIDI制御によって多重再生するUnix処理系を利用した。 背景グラフィクス系でも、リアルタイムMIDI制御3D-CGソフト、複数の背景 ビデオ映像、ステージ上のPerformerを向いたCCDカメラ群を利用して、センサ による「演奏」と同期してライブスイッチングを行った。PerformerはMIBURI センサを利用した一種の「舞い」によって演奏した。(パターン3.1.2) なお、この作品の作曲については、詳細に後述している。 3.3.8 「Johnny」 作曲1996年、初演1996年10月19日『京都メディア・アート週間』、京都・関西 ドイツ文化センターホール、パフォーマンス:藤田康成、CG:由良泰人 ステージ上には、MIBURIセンサを着たダンサー、パワーグローブを付けた 作曲者、そしてスライダーコンソールを操作するCG作家が並んだ。コンセプト は「セッション」であり、それぞれのPerformanceの情報はマージされて、 背景音響パート、ソロパートのサウンド、背景CG等をライブ制御した。 (パターン3.1.3) 3.3.9 「Flying Proteus」 作曲1997年 、初演1997年3月11日『相愛大学音楽研究所公開講座』、相愛大学、 パフォーマンス:吉田幸代 テープ音楽として初めて挑んだ作品の姉妹作。フルートの音響素材を切り刻んで 処理した背景音響パートをCDに固定した。Performerはこれを聞きながら、MIBURI センサでサンプラーに収めた音響断片を鳴らして「演奏」した。(パターン3.1.1) 3.3.10 「Ephemeral Shimmer」 作曲1997年、初演1997年3月26日『[コンピュータ音楽最前線]韓日友好・ソウル 公演 日本コンピュータ音楽協会コンサート』、ソウル・YURIMホール、 パフォーマンス:吉田幸代、CG:由良泰人 作品3.3.10の姉妹作。さらに背景ビデオと演奏者ライブ映像のセンサによる ライブスイッチングを組み合わせた作品。全体の長さはCDによって固定された。 (パターン3.1.1) 3.3.11 「Brikish Heart Rock」 作曲1997年、初演1997年10月15日『神戸山手女子短期大学公開講演会・コン サート』、神戸・ジーベックホール、パフォーマンス:住本絵理、佐藤さゆり 電子的システムとは完全に切り離されたフルートは、楽譜で指示されたアベイ ラブルノートから完全に即興でソロするように指示された。オリジナルのタッチ センサと筋電センサを「演奏」するPerformerも基本的には即興のみ。背景の ロックパターンはコンソールの作曲者のマウスとPerformerのセンサによって リアルタイムにリズムパターンを変更した。(パターン3.1.3) 3.3.12 「The Day is Done」 作曲1997年、初演1997年10月15日『神戸山手女子短期大学公開講演会・コン サート』、神戸・ジーベックホール、パフォーマンス:下川麗子、石田陽子 全体の時間を支配するCDパートは、あらかじめ録音したVocalの声と「詩」を 朗読する自動音声を素材として制作した。ステージではVocalの声はリアル タイムにパラメータを変更するエフェクタに入り、もう一人のPerformerは テーブルに並んだ6台のノートパソコンのスイッチを踊るようにクリック して、テキスト読上げの自動音声をトリガした。この自動音声のピッチや 選択は、刻々と変化するシーケンス情報でリアルタイムに切り替えて ハーモナイズされた。(パターン3.1.2) 3.3.13 「Atom Hard Mothers」 作曲1997年、初演1997年10月15日『神戸山手女子短期大学公開講演会・コン サート』、神戸・ジーベックホール、パフォーマンス:寺田香奈、吉田幸代 背景音響パートは、録音された鈴虫の鳴き声のみを素材としている。これとは 別に、乱数とMIDIシーケンサをベースとするアルゴリズム作曲系の背景音響 パートがあり、ここに、オリジナル楽器「光の弦」とMIBURIセンサの二人の Performerが対話的に即興する。センサ情報は背景ライブ映像のスイッチング も制御する。(パターン3.1.2) 3.3.14 「天にも昇る寒さです」 作曲1997年、初演1997年11月24日『コンピュータミュージック・アンデパンダン ・コンサート』、神戸・ジーベックホール、パフォーマンス:住本絵理、佐藤さゆり、 山岡祥子、渡辺美紀、生体センサ製作:照岡正樹 「怪談楽団」というユニットを構成しての公演。ステージ上の4人のPerformer は、エフェクタ経由の「語り」、分離された即興フルート、タッチセンサによる 撥弦音、パワーグローブによるパーカッション。全体はMIDIシーケンスベース の背景音響とともに進行するが、全体の時間はコンソールでの作曲者の操作 で任意に伸び縮みする。背景画像は全体の音響をリアルタイムFFTした3D波形。 (パターン3.1.3) 3.3.15 「Ogress」 作曲1998年 、初演1998年3月10日『相愛大学音楽研究所公開講座』、相愛大学、 パフォーマンス:下川麗子 Vocalの「声」にKymaで信号処理した素材のみを使って、ほぼ完全なテープ音楽 のような背景音響をCDとして固定。これを背景に、ライブでマイクからのVocal をリアルタイムにパラメータを変化させるKymaで信号処理して「演奏」した。 (パターン3.1.2) 3.3.16 「Scenary」 作曲1998年 、初演1998年3月10日『相愛大学音楽研究所公開講座』、相愛大学、 笙:林絹代 あらかじめPerformerの使う笙で音響断片をサンプリングして、Kymaの信号処理 によって背景音響パートを制作。ステージでは、笙は完全にアコースティック に演奏(響くホールなので敢えてPAもしない)した。背景音響と生演奏の 笙のサウンドがどちらともつかず渾然一体となって好評。(パターン3.1.1) 3.3.17 「Atom」 作曲1998年 、初演1998年3月10日『相愛大学音楽研究所公開講座』、相愛大学、 パフォーマンス:寺田香奈 Kymaを使って生成した背景音響パートのCDを聞きながら、オリジナル奏法の オリジナル楽器「光の弦」で即興演奏を行った。(パターン3.1.1) 3.3.18 「Visional Legend」 作曲1998年、初演1998年9月19日『国際コンピュータ音楽フェスティバル』、 神戸・ジーベックホール、笙:東野珠実 あらかじめPerformerの使う笙で音響断片をサンプリングして、詩を朗読する バリトンの声とともに、Kymaの信号処理によって背景音響パートを制作。 ライブの場では、作品3.3.13と同じ手法でのライブ・グラフィクス系を笙の ためのブレスセンサによってトリガし、あわせてKymaをライブ制御する MAXのMIDIアルゴリズムによって、笙のリアルタイム信号処理を行った。 (パターン3.1.2) 4. Computer Musicの作曲の実際:"Asian Edge" 筆者はComputer Music作品を作曲していく上で、常に新しいアプローチを試みた 「実験」を盛り込むように努めている。ここでは、1996年7月13日にジーベック ホールでのコンサート「コンピュータ音楽の現在'96」(日本コンピュータ音楽協 会)で初演した作品 "Asian Edge" について、その構想から作曲に至る過程を紹介 する。Computer Musicの分野では、楽譜に音符を書き込んだりシーケンサにデータ を打ち込むスタイルだけでなく、まず必要な装置/センサ/ソフトウェア等をオリ ジナル開発することから始まるような作曲もある、という事例の紹介でもある。 4.1 コンセプト この作品の基幹コンセプトはタイトルの通り、広い意味でのアジアである。多様な 生物・多様な種族・多様な文化・多様な歴史のるつぼ、というモンスーン地域の、 どこからでも生命が涌いてくる混沌・雑然とした力強さ、を音響と映像とで紡ぐこと を当初から目指した。しかしこの時点では具体的な作品上演形態のイメージはほぼ ゼロであり、以下の作曲の過程で次第に明確になっていった。 筆者のそれまでのComputer Music作品では、主に音響素材としては市販の電子楽器 のプリセット音色をそのまま音源として用いてきており、オリジナル製作した Granular Synthesis音源というのは例外的なものだった。しかし、その前年10月に 東京で、11月に神戸で発表した作品 "Virtual Reduction" において、それまで暖め ていた「声」という素材を利用する機会があり、ここで本格的に音響素材を信号処理 することへの関心が高まっていたこともあり、本作品では初めての試みとして、 気合いを入れて音響素材を徹底的に練り上げることを決意した。これはComputer Musicの作曲においては、途方もない時間をかけることを覚悟することであり、従来 の作曲よりも一桁多い時間がかかることを意味した。 4.2 調査と予備実験 まず調査として、音響素材となる「アジア的」「自然音」を多数、求めた。この中 には民族楽器の音響カタログCDや、映像用効果音カタログCD、そして多数の民族 音楽CDなどが含まれる。これらの音響は、それ自体が非常に個性が強く、単純に 抜き出してサンプリングしたのでは作品が音響に負けてしまうために、素材として 細かく切り出して、さらに信号処理によって加工する方針が決定した。 ツールとしてはSGI社のIndyワークステーションの標準機能であるディジタルサン プリングを活用した。IndyはCD-ROMドライブのCDを通常のCDプレーヤと同様に再生 しながら、同時にこの出力音響を48KHzステレオでサンプリングしてデータファイル 化することが簡単に行える。この作品のためにハードディスクを増強して4.5GBに したために、MO(光磁気ディスク)に退避することなくトータルで2時間以上のディ ジタルサンプルの編集が容易に実現できた。 Indyに標準付属しているサンプルデータのプレイヤーは、IRIX5.3版では複数の サンプルを同時には再生できないように改訂されていたために、まず最初のツール として、「同時にいくつでも音響ファイルを再生するplayer」というUnix プログラムを制作した。SGI社のUnixでは、リアルタイム機能とマルチメディア 機能が非常に強力であるために、SGI社のサンプルをチューニングした簡単な C言語プログラムを制作することによって、同時に10数本のサウンドファイル(1本 が10-20MB程度のサイズ)を再生できる環境が完成した。 このplayerツールを用いて、30秒から1分ほどの長さに切り出した民族楽器の 音響サンプルのアイコンを次々にクリックして再生してみると、多数の音響が 重なった独特の厚みとうねりの魅力を再発見することができ、この音響を作品の 中核に据えることを決定した。ただし、あらかじめスタジオで全ての音響を制作 してDATテープに落としたのでは、ライブパフォーマンスとして物足りないために、 あくまで個々の音響素材がステージでトリガされるように構成することにした。 4.3 演奏者/作詩/映像制作の依頼 作品はライブComputer Musicシステムとともに、中心に神戸山手女子短期大学 音楽科卒業生の[ピアニスト・吉田幸代]によるPerformanceを置く、という構想 が固まり、出演を依頼した。吉田は以前の作品 "Strange Attractor" の演奏に おいて、プリピアード・ピアノへの取り組みや即興性に多くの可能性を感じさせた ためである。そしてピアノという非アジア的な楽器でなく、身振りのセンサを利用 した、一種のダンスによるインタラクティブ作品としてのイメージも次第に固まっ た。 この作品では、イメージをより直接的に象徴するような言葉(テキスト音響素材) も重要な音楽的要素になると判断し、前作 "Virtual Reduction" でも作詩を依頼 した[詩人・千歳ゆう]に対して、コンセプトの提示とともに電子メイルにて再び 作詩を委嘱した。その後3カ月ほどして電子メイルで届いた彼女のテキストは、 一切の修正・変更を行わずに、そのまま用いることにした。 また、マルチメディア作品におけるコラボレーションを続けている[映像作家・ 由良泰人]に対して、リアルタイムCGとともにセンサによって切り換えられる イメージ映像(BGV)の制作を依頼した。ここでも詩人と同様のコンセプトを電子 メイルにて提示し、「15分ほど連続した自然界の単調な映像を3種類」という条件 で制作依頼した。さらに、前作 "David" で由良が制作したリアルタイムCGの 一部も、本作品のためにMIDI制御カスタマイズ化した上で使用する承諾を得た。 この結果、4カ月ほどして3本のビデオ映像が届けられたが、「川」「木立」「滝」 というそれぞれモノトーンで緩やかに動き続ける印象的な映像であり、ここにほぼ 全てのイメージ素材が出そろうこととなった。 4.4 音響素材と信号処理 メインの音響となるアジアの民族楽器の音響素材は、第1段階として約100種類 のサウンドサンプルとして、それぞれが数十秒から1分程度の分量で切り出された。 ここからの作業は、IRIXに標準装備されているsoundeditorというツールを用いて、  ・頭の部分のノイズをカット  ・最後の部分をフェイドアウト  ・他のサウンドとの音量バランス調整(レベル)  ・部分的ノイズを波形拡大ズーミングによってミュート を全てについて行う、という単純作業である。この作業は実際に耳で音響を聞きな がらマウスによる手作業で行う必要があり、かなりの時間をかけた。 次に第2段階として、次々にトリガされて再生されるサウンドサンプルに空間的な 広がりを与えるために、「全てのサウンドは全再生時間にわたって左端から右端に パンする」という指導原理を与えることにした。これにより、個々のサウンドは 常に音像を移動しつつ複雑に混じり合うこととなり、非常に有効なサウンド空間が 実現できた。このために、「指定されたサウンドファイルを左端から右端まで パンニングさせたステレオデータに変換する」というコンバータソフトをC言語で 制作し、変換ファイルをUnixのシェルプログラムとして与えることで、全自動で 全てのファイルを自動変換した。非常に多量のファイルを正直に1バイトずつ読み 込んで変換するために、作業は丸2日の自動運転となったが、これを当時の パソコンで行えば連続2週間ほどかかる処理量であった。 そして第3段階として、センサや画像系などの制御とこのリアルタイム音響生成系 を結び付ける機構として、「MIDIでの音響生成システム」を制作した。ここでは、  ・IndyへのMIDI入力によって、指定されたUnixシェルプログラムが起動する  ・このUnixシェル中で、個々のサウンドファイルを与えてplayer起動する  ・再生終了の状況をMIDIとしてメインシステムに返す という構成をとることにした。MIDIでサウンドが鳴る、といってもサンプラーの ようなレスポンスは期待できないが、約1秒で反応する一種の巨大データの ディジタルサンプリングプレーヤとしてIndyを使用する、という構想である。 具体的に制作したUnix上のCプログラムは、既に述べたplayerと後述するcg_sound の他には、「MIDIを受けてUnixシェルを起動する」midi_process、「指定された MIDI情報を外部出力する」send_midi、という2種である。IRIXのMIDIライブラリ にはバグがあり、そのままではMIDIが正常には利用できなかったために、筆者は 原因をCライブラリソースまで辿って解析し、バグに対応したパッチを当てる ことで解決した。 以上の準備を受けた第5段階として、Unix上のシェルスクリプトを「楽譜」 として記述し、何度もテストして全体の音響として「作曲」する作業に入った。 全体を3つのブロックに大別してフューチャリングする音響の種類を変えていく 中で、せっかく用意しても採用されずに捨てられた音響サンプルは全体の7割 ほどになった。最終的に作品としてコンサート会場でIndyから「演奏」された サウンドファイルの総量は、便宜的にdrawnと名付けたグループが15種145MB、 fluteグループが21種85MB、tubaグループが6種41MB、pipeグループが6種40MB、 川のせせらぎ音が4種31MB、Indyから鳴らしたPerformerの声が1種15MB(いずれも 端数切捨て)ほどである。 4.5 Performerの音響サンプル信号処理 アジア的な音響素材とともに重要な要素となる、Performer(吉田)自身の声に よる詩の朗読も並行して行われた。まずは防音室においてDATで詩の朗読を 録音して、という予定だったが、吉田のnativeな関西弁がどうしてもイメージ と合わず、最終的には文節単位で細切れにした「単語読み上げ」の羅列データ しか録音できなかった。意図的に関東弁アクセントにするために、単語単位で しか満足のいくフレーズは獲得できない、という点は今でも課題である。 これを持ち帰り、再びIndyのsoundeditorを用いて、個々の文節ごとに音量 のバランスとそれぞれの時間的間隔を微調整して、ようやく詩の1行単位にまで 再構成するためには、かなりの時間を要した。そしてこれらのフレーズは、  ・センサによってMIDIサンプラーから再生する  ・ステージ上でPerformerのマイクから拾ってエフェクタをかける  ・多重に重ね合わせたフレーズ群の音響をIndyから再生 という3系統の素材として、再びIndy上の信号処理とサンプラーへの移管を 繰り返した。データはディジタルでなく、IndyとサンプラーとDATのアナログ ラインによるピンポン作業とした。 エフェクトについては、一般のMIDIエフェクタ、サンプラー内蔵のエフェクタ だけでなく、一部のフレーズでは、筆者の開発したGranular Samplingソフト を用いてIndy上で加工した音響サンプルを制作した。 4.6 センサ系の開発 それまでに30種類近いオリジナルセンサを開発してきた経験から、本作品のため の新しいセンサの開発は比較的容易に実現できた。本稿ではエレクトロニクス的 な詳しい解説は省略するが、回路図や内蔵CPUのプログラムリストを含めた詳しい 解説を掲載した単行本を出版したので、興味のある方はそちらを参照されたい (CQ出版「Java & AKI-80」長嶋洋一)。 本作品のために開発したオリジナルセンサは2種であり、  ・曲げセンサを利用して、両腕の[手首・肘・肩]の曲げを検出する   MIBURI-sensor  ・太鼓から延びたパイプが向かい合う部分の赤外線ビームを遮る時間を検出   する一種の楽器のSNAKEMAN と名付けたものである。いずれもカードマイコンAKI-80を使用して内部のCPU プログラムから電子回路までをオリジナル開発したものであり、独自のMIDI プロトコルでセンサ情報をメインシステムに供給する。 作品のシステム全体の制御は2台のMacintosh PowerBookによって "MAX" を 走らせることで実現した。コンピュータとしては、2台のMacintoshと2台のIndy をMIDIでネットワーク化して同時に使用したことになるが、オリジナル製作した センサやビデオ機器などの中にも筆者がプログラムしたコンピュータが入って いるために、この1作品を公演するためにステージ上で同時に共同作業していた コンピュータの総数は10数台、ということになる。なお、Mac上のMAXについても 紙面の関係でここでは紹介できないので、既に紹介した参考文献を参照されたい。 4.7 画像処理系の開発 本作品では、画像系として  ・3種類の背景ビデオ  ・MIDIセンサで動く3次元CG  ・ステージ上の3台のビデオカメラによるPerformer自身の映像  ・自作のビデオ信号発生器によるBlack信号 をソースとして、オリジナル開発した「8入力8出力MIDI制御ビデオスイッチャ」 でリアルタイムに映像を切り替え、出力として3台のビデオプロジェクタによる 3面スクリーンに投射した。 ビデオスイッチャは、1995年10月に日独メディア・アート・フェスティバル に出展したメディア・インスタレーション作品「メディア・シアター[鏡の寓話]」 (中村滋延+山田実+石原亘+長嶋洋一)において使用した、MIDI制御 8入力1出力ビデオスイッチャの発展形として新規に開発した。中身は単なる ビデオマトリクスICをAKI-80で制御しているだけのものであり、フレーム メモリもないためにスイッチング時のノイズも出るが、リアルタイムの パフォーマンスにおいてはこの画像の乱れは気にならなかった。 MIDI_videoと名付けた基準ビデオ信号発生器は、これもMIDI制御で複数 種類のテストパターンやカラーを出すマシンであるが、同時にIndyに必要 最小限のMIDI信号だけを与えるためのフィルタ、という意味もあって新規に 開発した。パソコンと違って、Unixワークステーションは特にMIDI受信と いうリアルタイム処理に弱く、このような外部ハードウェアでMIDI情報の トラフィックを制限しないと、リブート復活に数分かかる、という深刻な フリーズ現象にさいなまれる。このような「本番に対するリスク管理」の ノウハウは、場数を踏んでいかなければ蓄積されないものである。 4.8 全体の作曲とリハーサル 以上のような道具だてとともに、本番前のリハーサルが重要な問題となった。 筆者は静岡県浜松市の自宅から音源関係と音響用のIndyを積んで神戸に向けて 走り、画像系のIndyは筆者が非常勤研究員を務める大阪のイメージ情報科学 研究所から神戸に向かった。しかしこれでは当日しか全ての機材が完全に揃う ことは不可能となり、リハーサルとしては非常に困難な状況であった。 そこで、神戸山手女子短期大学情報教育研究センターの協力を受けた。ここには 同じSGIのIndyが24台あるからである。このIndyのうちの2台を本番の2台のIndy に見立ててサウンドとグラフィクスのオリジナルソフトを走らせ、さらに3台を 3面スクリーンに見立てることで、ほぼ本番と同じようなセッティングで リハーサルを行うことができ、最終のバグ出しを行えた。 さらにコンサート開催主体の日本コンピュータ音楽協会に要請して、前日に神戸 山手女子短期大学音楽科関係者に対する「公開リハーサル」と位置づけて多めの 時間帯を割り当ててもらい、ここでようやく、初めて全ての構成要素が出そろった リハーサルを行うことができた。聴衆動員と引き換えに協力してもらった形で あるが、このリハーサルなしには本番の成功はなかったように思われる。まさに 綱渡りであった。 5. おわりに インタラクティブ・アートにおけるアルゴリズム作曲と即興演奏について、筆者 の実例を中心に検討した。具体的な作曲の実例としては、インタラクティブ・ マルチメディア作品 "Asian Edge" について、その構想から作曲/公演までの経過 について報告した。この公演に関しては、記録ビデオや録音テープはあるものの、 現場に居合わせなかった人にその作品を全て感じてもらうのは不可能である、と 最初から期待していない。多量の機材と準備から、再演の可能性も極めて低いもの と思われる。しかし、当日のステージはPerformer・吉田の即興演奏によって素晴 らしいものとなり、これはまさにその場限りの作品として意義あるものだったと 考えている。 コンピュータという道具を用いるからには、Computer Musicとは機械のような 正確さと再現性を持つものであろう、という誤解が蔓延している。しかし筆者に とってのComputer Musicとは、その場限り、一期一会、風のように流れ去って 同じものは二度とないものである、という確信をまた強くしたのである。今後も、 「即興」に重点を置いた、一期一会のComputer Music作品を追求していきたい。 6. 参考文献 「音群技法による音楽作品のための演奏支援システム」、平成2年度後期全国大会 講演論文集I(情報処理学会)、1990年 「An Experiment of Computer Music : Psuedo Granular Synthesis」、 平成4年度前期全国大会講演論文集I(情報処理学会)、1992年 「Neural-Network Control for Real-Time Granular Synthesis」、 1992年度人工知能学会全国大会論文集I(人工知能学会)、1992年 「An Experiment of Real-Time Control for "Psuedo Granular" Synthesis」、 Proceedings of International Symposium on Musical Acoustics (国際音響学会)、1992年 「Real-Time Control System for "Pseudo" Granulation」、Proceedings of 1992 International Computer Music Conference(International Computer Music Association)、1992年 「Chaotic Interaction Model for Hierarchical Structure in Music」、 平成5年度前期全国大会講演論文集II(情報処理学会)、1993年 「Musical Concept and System Design of "Chaotic Grains"」、 情報処理学会研究報告 Vol.93,No.32 (93-MUS-1)(情報処理学会)、1993年 「Chaotic Interaction Model for Real-Time Composition」、 1993年度人工知能学会全国大会論文集I(人工知能学会)、1993年 「PEGASUS-2 : Real-Time Composing Environment with Chaotic Interaction Model」、Proceedings of 1993 International Computer Music Conference (International Computer Music Association)、1993年 「Chaotic Interaction Model for Compositional Structure」、 Proceedings of IAKTA / LIST International Workshop on Knowledge Technology in the Arts』(International Association for Knowledge Technology in the Arts)、1993年 「Virtual Musicianにおける演奏モーションの情報処理」、 平成5年度後期全国大会講演論文集I(情報処理学会)、1993年 「Chaos理論とComputer Music」、京都芸術短期大学紀要[瓜生]第16号1993年 (京都芸術短期大学)、1994年 「Attractor Synthesisによる楽音合成システムの検討」、 平成6年度前期全国大会講演論文集I(情報処理学会)、1994年 マルチメディアComputer Music作品の実例報告」、情報処理学会研究報告 Vol.94,No.71 (94-MUS-7)(情報処理学会)、1994年 「Multimediaパフォーマンス作品Muromachi」、京都芸術短期大学紀要[瓜生] 第17号1994年(京都芸術短期大学)、1995年 「画像情報と統合されたコンピュータ音楽創造環境の構築」、 平成7年度前期全国大会講演論文集I(情報処理学会)、1995年 「Multimedia Interactive Art : System Design and Artistic Concept of Real-Time Performance with Computer Graphics and Computer Music」、 Proceedings of 『Sixth International Conference on Human-Computer Interaction(ELSEVIER)、1995年 「マルチメディア生成系におけるプロセス間情報交換モデルの検討」、 情報処理学会研究報告 Vol.95,No.74 (95-MUS-11)(情報処理学会)、1995年 「PCM音源の並列分散処理によるGranular Synthesis音源」、 情報処理学会論文誌 Vol.36,No.8(情報処理学会)、1995年 「A Compositional Environment with Interaction and Intersection between Musical Model and Graphical Model --- "Listen to the Graphics, Watch the Music" ---」、Proceedings of 1995 International Computer Music Conference(International Computer Music Association)、1995年 「Granular Synthesisの音響パラメータの検討とその制御」、 日本音響学会音楽音響研究会資料 Vol.14,No.5(日本音響学会)、1995年 「マルチメディア作品におけるカオス情報処理の応用(研究ノート)」、 京都芸術短期大学紀要[瓜生]第18号1995年(京都芸術短期大学)、1996年 「マルチメディア・アート開発支援環境における生成系エージェントのための 制御構造モデル」、平成8年度前期全国大会講演論文集I(情報処理学会)、1996年 「マルチメディア・インタラクティブ・アート開発支援環境と作品制作・ パフォーマンスの実例紹介」、情報処理学会研究報告 Vol.96,No.75 (95-MUS-16) (情報処理学会)、1996年 「アルゴリズム作曲における非周期的ルールの考察」、 日本音響学会音楽音響研究会資料 Vol.15,No.4(日本音響学会)、1996年 「[広義の楽器]用ツールとしてのMIDI活用」、 情報処理学会研究報告 Vol.96,No.124 (96-MUS-18)(情報処理学会)、1996年 「インタラクティブ・マルチメディア作品 "Asian Edge" について」、 京都芸術短期大学紀要[瓜生]第19号1996年(京都芸術短期大学)、1997年 「"Improvisession":ネットワークを利用した即興セッション演奏支援システム」、 『情報処理学会研究報告 Vol.97,No.67 (97-MUS-21)』(情報処理学会)、1997年 「ネットワーク上の分散マルチメディア環境とセンサを活用した即興セッション システム」、平成10年度前期全国大会講演論文集2(情報処理学会)、1998年 「Interactive Computer Musicのための生体センサ等を応用した「新楽器」に ついて」、平成10年度前期全国大会講演論文集2(情報処理学会)、1998年 「生体センサによる音楽表現の拡大と演奏表現の支援について」、 情報処理学会研究報告 Vol.98,No.74 (98-MUS-26)(情報処理学会)、1998年 「BioSensorFusion : New Interfaces for Interactive Multimedia Art'」、 Proceedings of 1998 International Computer Music Conference (International Computer Music Association)、1998年 「Multimedia Performing Arts : System Design and Artistic Concept of Real-time Interactive Performance with Computer Graphics and Computer Music」、Proceedings of 1998 IFAC - Man Machine Systems Conference (IFAC/IFIP/IFORS/IEA)、1998年