インタラクティブアートの
統合的システム・プラットフォーム
としてのMax/MSP

2002年8月 長嶋 洋一


■はじめに

IRCAMのChabot Xavierさんの紹介により未公開の試作版"Max"を知って驚愕したのは、
まだPCがMS-DOS時代の1989年頃でした。もはや電子楽器産業に将来はない、と確信した
大きなエポックだったかもしれません。以来、Maxは世界のアーティストのプラットフォームと
して支持され成長し続けてきましたが、改めてその先見性/先進性に敬意を表します。この期間、
私のComputer Musicもまた、Maxを相棒として、ただし過度に依存せず、色々な挑戦と共に
進展してきました。本稿では主として「Computer Musicシステムの構築基盤としてのMax」
という視点から、私の作品についての事例を紹介し、メディアアートを実現する「アイデア
の揺籃環境」としてのMax/MSPについて再確認します。重要なのは、「Maxが得意とする」
のか、「Maxよりも適任がいる」(Maxと連携する)のか、という個々の違いを理解して適切に
活用する、という当然の事でしょう。

■Max以前 -1993

シーケンスデータとして固定された再生音楽、というのはなんとも性に合わないため、
Computer Music第1号となったテープ作品"Growing Glue Grains"(1991)から、既に
乱数要素やGranular Samplingを用いていました。ただし当時はまだMaxを持っていなかった
ため、MS-DOS上でC言語によりアルゴリズミックな生成系をプログラミングして、MIDIセンサ
(ジョイスティック改造)からパラメータを送りました。Maxであれば実験的にオブジェクトを
変えたり簡単に結線を変更できるのに、C言語ソースをエディットしてコンパイルして・・・と
いう手間になりました。その待ち時間にアイデアが消えてしまうのが辛かったです。

90年代前半は「フラクタル」「カオス」「ニューラルネット」などを探究した時期ですが、
ピアノ奏者の即興演奏を伴う作品"Chaotic Grains"(1992)、CGをバックにパーカッション
奏者が演奏する作品"CIS(Chaotic Interaction Show)"(1993)などは、ライブ作品で
ありながらまだMaxを使わない最後の時期(Maxは93年から勉強開始、楽譜も手書き)だった
ので、リハーサルの現場でアルゴリズムを変更する(ソースの編集とコンパイル)のも困難でした。
ライブの偶然性は、生成されるカオスの振る舞いと、PowerGloveセンサを持った指揮者と
対話するPerformerの即興性(MIDIセンシング情報)に依存した公演となりました。

(図1) "Chaotic Grains"のシステム図 [Chaotic.GIF]
(図2) "CIS(Chaotic Interaction Show)"のシステム図 [CIS.GIF]

■AMIGA/PCとの連携 1994-95

作品"CIS"に続いてGraphic Artistの由良泰人さんとコラボレーションした作品"Muromachi"
(1994)が、Maxを使った初めての作品の公演です。この2作品のグラフィクスパートとしては、
由良さんがMIDIに標準対応するAMIGAコンピュータ上でオリジナルのCGソフトを開発し、私の
サウンド系システムとMIDI情報を交換することで、リアルタイムのマルチメディア処理を実現
しました。当時のMaxのグラフィクス機能は非力なため、MIDIを切り口として外界とやりとり
して、別の機構によるグラフィクスとサウンドとを連携したわけですが、その「関係性」を
Maxの優秀なGUIにより柔軟に実験/プログラミングできる、という事がとても重要なわけです。
また、大部分の作品がライブ性を重視しているので、多くのセンサ群によるMIDIパフォーマンス
情報をMaxの入力とするために、MIDIの世界との接点を持たないグラフィクスシステムなどは
まったく対象外で、これは現在まで基本的に変わっていません。

(図3) "Muromachi"のシステム図 [Muromachi.GIF]
(図4) "Muromachi"のメインパッチ [muro1.GIF]

ステージ上でグラフィックPerformerが「お絵描き」する行為がサウンドも生成する、という
この作品"Muromachi"の公演では「自分もやってみたい」との感想が続出しました。その結果、
「芸術祭典・京」では、子供がギャラリーで楽しめる体験型インスタレーション作品
"Muromachi3"(1995)へと進化しました。ここでは大規模であった音源部分を1台のSC-55に
圧縮するために、MIDIベースでの多くのアルゴリズミックなテクニックを磨く機会となりました。
また、グラフィクス系は同じ由良さんのAMIGAなのですが、Max内にもその簡易エミュレータと
して、マウスでlcdオブジェクトに「お絵描き」してほぼ同様に遊べる機能も組み込みました。

(図5) "Muromachi3"のメインパッチ [muro2.GIF]
(図6) "Muromachi3"のサブパッチ(1) [muro3.GIF]
(図7) "Muromachi3"のサブパッチ(2) [muro4.GIF]
(図8) "Muromachi3"のサブパッチ(3) [muro5.GIF]
(図9) "Muromachi3"のサブパッチ(4) [muro6.GIF]
(図10) "Muromachi3"のサブパッチ(5) [muro7.GIF]

リアルタイムに生成されるカオスをテーマとした作品"Strange Attractor"(1994)では、
ピアニストは自分の耳に知覚されるカオス生成のフレーズが指定ビート数に進行したことを
認識して進む、という即興を要請されました。ここでは背景の2次元リアルタイムCGは純粋
な数学的演算結果を描画するもので、今は亡きPC-9801のカオス描画ソフトをC言語で開発
して走らせました。ステージ上では、プリピアードピアノを「攻撃」するピアニストの演奏が
自作衝撃MIDIセンサにより検出され、Max経由で音楽の全体を駆動(シーン推移)しました。

(図11) "Strange Attractor"のシステム図 [strange.GIF]
(図12) "Strange Attractor"のメインパッチ [strange2.GIF]
(図13) "Strange Attractor"のサブパッチ群 [strange3.GIF]

■外部音源(sampler/effector)との連携 1995

「声」を素材/テーマとした初めての作品"Virtual Reduction"(1995)では、まだ当時は
リアルタイム音声信号処理の十分な環境がなかったために、指揮者/演奏者のMIDIパワーグローブ
をセンサ入力とするMaxから、MIDIによりサンプラーを制御してサンプリング音声をアルゴリズミック
に多重生成し、同時にライブ音声に対してはMIDIコントロール対応のエフェクタを制御する、という、
当時としては多くの作曲家に共通(定番)の手法を用いました。

(図14) "Virtual Reduction"のシステム図 [virtual.GIF]
(図15) "Virtual Reduction"のメインパッチ [virtual2.GIF]
(図16) "Virtual Reduction"の楽譜の一部 [virtual3.GIF]

■SGI Indyとの連携 1995-96

AMIGAに続くグラフィクス系として、シリコングラフィクス社のIndyを活用しました。
SGIのIRIXは、OSがカーネルからMIDIに強力に対応し、C言語ライブラリにもMIDI処理が
標準対応して(バグがあったため解析してパッチを当てましたが)、さらに標準装備の
Open-GLによって軽快に3次元リアルタイムCGが実現できるという優れものです。従って
OSF/Motifの優れたGUIとともに、C言語によって、「MIDIで3次元CGをぐりぐり回す」とか
「MIDIでGranular Sampling制御したりサウンドファイルを20個ほど多重再生」などという
実験ソフトウェアが、比較的短期間に量産できました。これらは全て私のWeb
[http://nagasm.org/ASL/indy/]で公開しています。さらに後には、後藤真孝氏の
RMCPにより、ネットワークセッションを実現するプラットフォームともなりました。
作品"David"(1995)では6関節センサによるダンスPerformanceがIndyのリアルタイム
3次元CGとともにアルゴリズミックなMIDIサウンド系を駆動しました。

(図17) "David"のシステム図 [david.GIF]
(図18) "David"のメインパッチ [david2.GIF]

作品"Asian Edge"(1996)ではサウンド系もSGIとしてジーベックホールに2台のIndyを持ち
込み、さらに3系統のBGVと3系統のライブCCDカメラを、Performerの身体動作センサから
の情報によりライブスイッチングする装置を作品の一部として開発して、3面スクリーンに
投射しました。ライブのダンスパフォーマンスのリアリティーは、アナログ的に映像信号を
乱暴に切り替えるビデオスイッチャのノイズやCCDカメラのモノクロ画像を全く気にさせない、
という強力な効果を確認できました。多数のセンサ群のパターン認識、Open-GLグラフィクス
のパラメータ制御、7ソース3プロジェクタのビデオ切り替え、などの複雑な関係性を整理する
ために、この作品では2台のMaxに機能を分割して実現しました。

(図19) "Asian Edge"のシステム図 [asian.GIF]
(図20) "Asian Edge"の1台目Maxのメインパッチ [asian2.GIF]
(図21) "Asian Edge"の1台目Maxのサブパッチ群 [asian3.GIF]
(図22) "Asian Edge"の2台目Maxのメインパッチ [asian4.GIF]
(図23) "Asian Edge"の2台目Maxのサブパッチ群 [asian5.GIF]

作品"Johnny"(1996)では、ステージでダンスPerformerの両脇にグラフィクス作家と作曲家
自身も並び、ライブでマルチメディアのセッションをする、というコンセプトに挑戦しました。
グラフィクス奏者はOpen-GLのリアルタイム描画パラメータを操作し、サウンド奏者は筋肉トレーニング
機器「ブルーワーカー」に曲げセンサ(ストレインゲージ)を貼り付けたものを曲げることで、「汗」と「力こぶ」を
感じさせる身体動作センサにより、新規開発したオリジナルGranular Synthesizerを演奏しました。

(図24) "Johnny"のシステム図 [Johnny.GIF]
(図25) "Johnny"のメインパッチ [johnny2.GIF]

■コンクレート音響/合成音声との連携 1997

それまで避けてきたミュージックコンクレート、すなわちスタジオで時間をかけてサウンド素材を
練り上げる、という作業を、作品"Asian Edge"(1996)の「アジア民族風」サウンド素材制作の時に
みっちりと体験したことをきっかけに、ライブComputer Musicとは別路線もスタートしました。
テープ作品"Perching Proteus"(1997)では、与えられたフルート演奏のデモテープのみを素材と
して音響作品を制作(音響編集はIndy上のSGI soundeditorを利用)しましたが、これはダンサーが
センサとMaxによってサンプラーに格納した多数の音響をトリガする作品"Flying Proteus"(1997)
に発展しました。さらに作品"Ephemeral Shimmer"(1997)のソウル公演では、同様のサウンドを
背景にダンサーが身体動作センサとMaxによりサウンド生成とビデオ映像のライブスイッチングを
行いました。

(図26) "Flying Proteus"のメインパッチ [flying.GIF]
(図27) "Ephemeral Shimmer"のメインパッチ [shimmer.GIF]

作品"The Day is Done"(1997)では、Macintoshのテキスト朗読音声を制御するichiさん提供の
speechオブジェクトを活用して、これとソプラノの音声とがライブで絡みました。ステージでは
もう一人のPerformerが6台のPowerBookをパーカッションのように即興的にクリックする、と
いう「演奏」で対話しました。マスターのMaxからはシーンの推移が送られ、それぞれのMaxは
フレーズ、音声切り替え、音声ピッチ選択、などをライブに変更していく音声合成シンセサイザ
として機能したことになります。現在なら全体としてたった1台のMax/MSPだけで十分ですが。

(図28) "The Day is Done"のシステム図 [day.GIF]
(図29) "The Day is Done"のマスターMaxのメインパッチ [day2.GIF]
(図30) "The Day is Done"の5台のスレーブMaxのうち1台のパッチ [day3.GIF]

■身体動作・演奏行為との連携 1997

クラシックの音楽科学生をPerformerとした作品"Brikish Heart Rock"(1997)では、
背景音響部分はGM音源をMaxによりMIDI駆動していますが、実はシンプルな8ビートの
ロックのようで、途中で乱数により1拍だけ余分なフェイクが入ることがあるため、
Performerは耳をすましてこの変拍子のサインとなるサウンドに注目する必要があり
ます。その緊張感と即興性、そしてアルゴリズミックに音楽要素をライブ生成する、
というコンセプトは音楽教育的にも意義のある公演でした。また、この作品では、
試作した第1世代の筋電センサ"MiniBioMuse-I"を使って、Performerは自分の筋肉
から発するノイズを音源とした「演奏」(エフェクタによる音響操作をMaxで制御)を
行いました。

(図31) "Brikish Heart Rock"のシステム図 [brikish.GIF]
(図32) "Brikish Heart Rock"のメインパッチ [brikish2.GIF]
(図33) "Brikish Heart Rock"の楽譜の一部 [brikish3.GIF]

ライブComputer Musicの公演が生き生きとしたPerformerとシステムとのインタラクション
を実現するためには、メーカから製品として提供されているセンサでは面白くない、というのが
共通の基本姿勢です。これについては、[http://nagasm.org/ASL/berlin/] などの、
「皆んなでセンサを自作活用しよう」ページを見てみて下さい。作品"Atom Hard Mothers"
(1997)では、6関節の身体動作センサを身に付けたダンサーと対峙して、光ファイバセンサを
利用して制作した「光の弦」というハープ型のセンサからの情報もマージしてMaxに与え、
アルゴリズミックBGMとライブグラフィクスを制御しました。
Maxのバージョンを2.5.2に意固地に固定して、ライブMIDI処理のもっとも安定した環境に徹した
のも、この時期の特徴ですが、多数のセンサ群からのMIDI入力には現在のUSB-MIDI I/Fは弱い
ところがあるために、「Max2.5.2マシン」はいまだ現役です。

(図34) "Atom Hard Mothers"のシステム図 [mothers.GIF]
(図35) "Atom Hard Mothers"のメインパッチ [mothers2.GIF]
(図36) "Atom Hard Mothers"の楽譜の一部 [mothers3.GIF]

作品"天にも昇る寒さです"(1997)では、中原中也の詩を朗読するソプラノ、即興的に演奏
するフルートとともに、改造PowerGloveセンサで打楽器パートを演奏するPerformerと、
静電タッチセンサ/筋電センサにより無気味音を演奏するPerformerとの4人で「怪談」を
演出しました。背景グラフィクスには、Indyに付属しているリアルタイムFFT画像表示を
そのまま投射して、演奏されている全てのサウンドをその入力としました。この作品では
サウンドはMaxからアルゴリズミックに生成するMIDIだけ、それも音源としてたった1台の
SC-55だけ、という制約を設けてサウンドの練り上げにこだわりました。

(図37) "天にも昇る寒さです"のメインパッチ [kaidan.GIF]

■Kymaの音響処理との連携 1998

ICMC1997でリアルタイム音響処理エンジン"Kyma"と出会って以来、作曲の中でサウンド
生成/サウンド処理の部分の中核をKymaが担うことになりました。作品"Ogress"(1998)では、
あらかじめスタジオでKymaにより制作した背景音響とともに、ソプラノのライブ音声をKyma
で信号処理し、この信号処理パラメータ等をアルゴリズミックにMaxからMIDIで送る、という
基本的なスタイルが確立しました。作品"Scenary"ではあらかじめMaxのspeechオブジェクト
による合成音声と笙の録音音響を元にKymaで非実時間編集した背景音響とともに演奏者が笙を
演奏し、作品"Atom"(1998)ではKymaを一種のサンプラーとして「光の弦」センサでトリガ
しました。Kyma自身がSmalltalkやスクリプトによりアルゴリズム作曲を実現することも可能
ではあるのですが、これはMaxとは比べ物にならないので全く使用しません。

(図38) KymaホストPCの画面例 [kyma1.JPG]
(図39) Kymaパッチ/オブジェクトの一例 [kyma2.JPG]
(図40) "Ogress"のシステム図 [ogress.GIF]
(図41) "Ogress"のメインパッチ [ogress2.GIF]
(図42) "Ogress"の楽譜の一部 [ogress3.GIF]
(図43) "Ogress"のKymaパッチ [ogress4.GIF]

Kymaのソフト部分は図のように、信号処理のブロックを並べて線でつなぐ、というMaxに似た
GUIですが、Max/MSPのオブジェクトよりもブロック単位の信号処理機能が非常に強力であり、
この程度の簡単なパッチで驚くほどの信号処理を実現します。Macintoshのマシンパワーの向上
は同時にMax/MSPのDSP機能を強化していますが、KymaはモトローラのDSPプロセッサと多量
のメモリを搭載したDSPボードを、多数マザーボードに増設搭載して、個々のDSPアルゴリズムを
マイクロコードとしてダウンロードするタイプのハードウェアエンジンであり、その信号処理能力
はMax/MSPの比ではありません。体感としては10倍から50倍ほどKymaが強力であり、リアル
タイム信号処理のシステムとしてライブで信頼できるのはやはりKymaです。従って、Maxとの
組み合わせは、Kymaの全てのパラメータをMIDIにマップしておき、それをMaxからアルゴリズ
ミックにライブ供給/制御する、というスタイルです。

(図44) "Scenary"の制作パッチ [scenary.GIF]
(図45) "Scenary"の楽譜の一部 [scenary2.GIF]
(図46) "Scenary"のKymaパッチ [scenary3.GIF]
(図47) "Atom"のシステム図 [atom0.GIF]
(図48) "Atom"のメインパッチ [atom.GIF]
(図49) "Atom"の楽譜の一部 [atom2.GIF]
(図50) "Atom"のKymaパッチ [atom3.GIF]

1997年のICMCで笙奏者の東野珠実さんと知り合って出来た作品"Visional Legend"(1998)
は、笙のブレスを呼気と吸気の双方向で連続検出するセンサにより、Kymaでのリアルタイム
音響信号処理とグラフィクスのライブスイッチングをコントロールしました。呼吸の微妙な変化
に対応した関係性を柔軟なアルゴリズムで設定するのはMaxの得意なところであり、マルチ
メディアへのインタラクティブ・コントロール「基地」としてMaxが活躍しました。関連した
資料は [http://nagasm.org/ASL/paper/icmc99.pdf] にあります。また、
 [http://nagasm.org/ASL/kassel/] にはメイキングをまとめてあります。

(図51) "Visional Legend"のシステム図 [legend.GIF]
(図52) "Visional Legend"のメインパッチ [legend2.GIF]
(図53) "Visional Legend"のKymaパッチ [legend3.GIF]

■LimeとKymaとの連携 1998-2001

作品"Mycoplasma"(1998)は、ソプラノの朗読音声をKymaによりMaxからのコントロールで
ライブサンプリングし、同時にMaxからのアルゴリズミック情報により一種のサンプラー
として多重にリアルタイム生成して、増殖するマイコプラズマ・ウイルスをサウンドとして
実現しました。従来のサンプラー等によっては実現できない生き生きとした関係性はMaxと
Kymaの連携により生み出された新しい「持ち技」です。

(図54) "Mycoplasma"のメインパッチ [myco.GIF]
(図55) "Mycoplasma"のKymaパッチ [myco2.JPG]

この「Kymaによる生楽器の演奏音響のライブサンプリングとMaxによるアルゴリズミック
制御によるライブ音響信号処理」という作曲手法は、その後も作品のテーマやコンセプトと
ともに演奏楽器を換えながら、一つの路線として継承し、作品"Arrow of Time"(1999)では
フルート奏者に対して、新しく出会ったノーテーションシステム Lime を活用して、ほとんど
全編が即興、という指示の楽譜を渡しました。これ以降、アコースティック楽器の演奏家に渡す
楽譜をLimeで書く段階で、まずMaxにより即興性を含むアルゴリズミックな手法で生成したSMF
データを活用しています。作品"Voices of Time"(1999)ではフルート、作品"Piano Prayer"
(1999)ではピアノ、作品"Great Acoustics"(2000)ではパイプオルガン、作品"tegoto"(2001)
では17弦箏/13弦箏、そしてMAF2002コンサートで発表する新作"Berlin Power"(2002)では
Bass Recorder、とそれぞれの楽器のキャラクタや様式に対応した楽譜を生成し、さらに
コンサートの本番ではKymaのライブ制御というシステム動作の基盤となっています。

(図56) "Arrow of Time"の全楽譜 [arrow.GIF]
(図57) "Voices of Time"のシステム図 [voices.GIF]
(図58) "Voices of Time"のメインパッチ [voices2.GIF]
(図59) "Voices of Time"の楽譜の一部 [voices3.GIF]
(図60) "Piano Prayer"のメインパッチ [prayer.GIF]
(図61) "Piano Prayer"の楽譜の一部 [prayer2.GIF]
(図62) "Piano Prayer"のKymaパッチ [prayer3.JPG]
(図63) "Great Acoustics"のメインパッチ [great.GIF]
(図64) "Great Acoustics"の楽譜生成用パッチ [great2.GIF]
(図65) "Great Acoustics"の楽譜の一部 [great3.GIF]
(図66) "tegoto"のメインパッチ [tegoto.GIF]
(図67) "tegoto"の楽譜生成用パッチ [tegoto2.GIF]
(図68) "tegoto"の楽譜の一部 [tegoto3.GIF]
(図69) "tegoto"のKymaパッチ [tegoto4.JPG]

作品"Eternal Traveller"(1999)では、「光の弦」演奏者によりトリガされるサンプリング
音声と、ライブのソプラノ音声の音響処理、という組み合わせで、ちょうど1995年に
サンプラとMIDIエフェクタで実現した作品"Virtual Reduction"と似たような音楽的
要素となりました。かつては膨大なサンプル音声の制作/編集/MIDIマッピング等の作業
が必要でしたが、500MB以上のKymaのDSPオンボードメモリをサンプリングデータ格納
に使用することで、多種多量のサンプリングデータを容易に多重生成することができました。

(図70) "Eternal Traveller"のパッチ [travel.GIF]
(図71) "Eternal Traveller"のKymaパッチ [travel2.JPG]

■センサ系・SuperColliderとの連携 1999-2001

作品"Brikish Heart Rock"で使った第1世代の筋電センサ"MiniBioMuse-I"は、IAMAS
でのMSPサマースクール1999でも紹介しましたが、作品公演では不十分な筋電MIDI出力
部分でなく、筋電信号そのものをアナログ的な一種のノイズサウンドとして利用しました。
第2世代の筋電センサ"MiniBioMuse-II"になって、作品"Bio-Cosmic Storm"(1999)
において筋電MIDI情報をMaxに与えた最初のケースとなりました。これは2ch(両腕)の
筋電センサであり、ピアニストはこれを装着して「鍵盤の上空5cmで弾いて」という指示を
受けました。また、この作品では初めて音響処理システムとしてSuperColliderを使い、
MIDI音源やKymaの無いシステムとなりました。背景CGは中村文隆さんの制作したPC上
のOpen-GLの3次元CGで、これも初めての組み合わせでした。この時点ではMSPはまだ
バージョン1.0であり、SuperColliderと比較して音響処理能力は相当に低いという印象
であり、「Kymaでなければ信号処理はSuperColliderで」という基準ができました。

(図72) "Bio-Cosmic Storm"のメインパッチ [bio.GIF]
(図73) "Bio-Cosmic Storm"のSuperColliderパッチ [bio2.GIF]

欧州ツアーのコンサート最終曲として作曲した作品"Japanesque Germanium"(2001)では、
MaxとKymaでアルゴリズミックに制作したBGM音響CDに、尺八・笙・箏の即興演奏とともに
SuperColliderの電子音によるライブ演奏を加えました。これは画面内のカーソル座標を
パラメータとして、同時に生成音響のグラフを表示したことで、出ているサウンドと操作の
関係性が明瞭になり、自然楽器とともに全体のアンサンブルを構成しました。

(図74) "Japanesque Germanium"のパッチ [japan.GIF]
(図75) "Japanesque Germanium"のSuperCollider画面 [japan2.GIF]

ICMC1999の北京土産となった琵琶に、ジャイロセンサ/3次元加速度センサ/衝撃センサ
等を仕込んだ新楽器"Hyper-Pipa"を用いた作品"Beijing Power"(2000)では、Kymaを
サンプラとエフェクタとして利用し、センサ群からの情報をMaxで解釈してパラメータ
に変換しました。本来は楽器音に使えない衝撃センサからの出力ノイズをKymaによる
信号処理の音源としても利用しました。

(図76) "Beijing Power"のメインパッチ [beijing.GIF]
(図77) "Beijing Power"のサブパッチ群 [beijing2.GIF]
(図78) "Beijing Power"のKymaパッチ [beijing3.JPG]

■Image/ine との連携 2000-2001

音楽情報科学研究会で平野砂峰旅さんに教えてもらった"Image/ine"により、Maxの
システムが新しいグラフィクスの領域に発展しました。作品"Wandering Highlander"
(2000)では、ダンサーの身体動作検出センサにより、サウンド系としてはKymaによる
リアルタイム音響生成/処理を行い、グラフィクス系としては初めてImage/ineによる
MIDI制御ライブ・グラフィクスを投射しました。コラボレータとなった9人のSUAC
学生が「連画」の手法でリレー制作した45枚のCGをダンサーの動きで切り替えたり
関節の曲げ量に対応してCGのズーミングやカラー変化をダイナミックに与えました。

(図79) "Wandering Highlander"のシステム図 [wander0.GIF]
(図80) "Wandering Highlander"のメインパッチ [wander.GIF]
(図81) "Wandering Highlander"のサブパッチ(1) [wander2.GIF]
(図82) "Wandering Highlander"のサブパッチ(2) [wander3.GIF]
(図83) "Wandering Highlander"のサブパッチ(3) [wander4.GIF]
(図84) "Wandering Highlander"のサブパッチ(4) [wander5.GIF]
(図85) "Wandering Highlander"のサブパッチ(5) [wander6.GIF]
(図86) "Wandering Highlander"のサブパッチ(6) [wander7.GIF]
(図87) "Wandering Highlander"のKymaパッチ [wander8.JPG]

1998年に国際コンピュータ音楽フェスティバルで初演した作品"Visional Legend"は、
2001年の欧州ツアーでは"Visional Legend ver.2001"と改訂され、グラフィクス系
がImage/ineにより全面的にディジタル化されました。東野珠実さんの笙の演奏ムービー
と静止画とが笙ブレスセンサによってライブに制御されました。

(図88) "Visional Legend ver.2001"のシステム図 [kassel.GIF]
(図89) "Visional Legend ver.2001"のImage/ine画面(1) [kassel2.jpg]
(図90) "Visional Legend ver.2001"のImage/ine画面(2) [kassel3.jpg]

■Max4/MSPとグラフィクス 2001-02

Max3/MSP1 の時代から、ライブ公演という形態でなく講演などの場ではMSPによる
音響処理も使用してきましたが、Kymaがあるのでコンサートには使いませんでした。
2001年9月の欧州ツアーの直前のDSPSS2001では、ようやくMax4/MSP2に挑戦しつつ
後藤英さんのMSPによるFMの技も伝授されました。さらに、片腕8チャンネル*2という
第3世代の筋電センサ"MiniBioMuse-III"も完成したことで、これらを合体して、遂に
作品"BioCosmicStorm-II"(2001)では、センサ入力から全ての音響生成/信号処理、
そしてグラフィクスまでをMax4/MSP2で行うことになり、パリ/カッセル/ハンブルク
での公演を無事に成功させました。背景音響パートはあらかじめKymaにより制作した
複数のサウンドファイルをMSPでライブトリガによりplaybackしつつ、16チャンネル
の筋電情報を画面内の16個のウインドウで表示してプロジェクションし、これを
オシレータバンク/フィルタバンク/多重FMバンク、などのパラメータとしてライブに
音響合成を行いました。筋電センサの開発については、Webにまとめてありますので、
[http://nagasm.org/ASL/SIGMUS0108/] 参照してみて下さい。

(図91) "BioCosmicStorm-II"のメインパッチ [bcs.GIF]
(図92) "BioCosmicStorm-II"のメインパッチ [bcs2.GIF]
(図93) "BioCosmicStorm-II"のサブパッチ(1) [bcs3.GIF]
(図94) "BioCosmicStorm-II"のサブパッチ(2) [bcs4.GIF]
(図95) "BioCosmicStorm-II"のサブパッチ(3) [bcs5.GIF]
(図96) "BioCosmicStorm-II"のサブパッチ(4) [bcs6.GIF]
(図97) "BioCosmicStorm-II"のサブパッチ(5) [bcs7.GIF]

写真家の大山千賀子さんの個展"VIRUS"では、写真を変化する時間間隔で投射すると
ともにサウンドと「沈黙の暗黒」も挟まる、というMaxに最適な演出を依頼されて、
Max4/MSP2による作品としました。これは東京都写真美術館で毎日6時間、連続2週間
の展示に耐えました。サウンドパートはCDに固定してエンドレス再生し、ここにMSP
で音量変化とリアルタイムのAM/FMをかけました。

(図98) "VIRUS"のメインパッチ [ooyama.GIF]
(図99) "VIRUS"のサブパッチ [ooyama2.GIF]

■その他のMaxの活躍 2000-02

Maxはコンサートでのパフォーマンスだけでなく、ギャラリー等に設置展示した作品
においてインタラクティブな、あるいはマルチメディア的な機構を実現するための
プラットフォームとしても非常に強力です。作品"森海"(2000)、作品"季幻"(2001)に
おいては、入学したての新入生数名とのコラボレーションとして、1ヶ月ほどの制作期間
で体験型のインスタレーション作品を制作しましたが、Maxがなければいずれも実現
できないものでした。作品"森海"については [http://nagasm.org/1106/shin-kai/] で、
作品"季幻"については [http://nagasm.org/1106/news/tiger06/] で紹介しています。

(図100) "森海"のフロアプラン [shinkai1.gif]
(図101) "森海"のシステム図 [shinkai2.gif]
(図102) "季幻"のフロアプラン [origin1.gif]
(図103) "季幻"のシステム図 [origin2.gif]

サウンドとグラフィクス以外の出力、というキーワードで考えてみると、Maxが
MIDI出力した情報をAKI-H8などのマイコンで受けて「何か」をする、という
いくつかの活動があります。これは、I-cubeなどのMIDI周辺機器の活用と同様で
ある、と言えばそれまでなのですが、新しいメディアアートの「道具」として、
Maxの実験ツールとしての有用性をいつも実感しています。音楽情報科学研究会
インターカレッジコンサート2001で発表したTeam「風虎」の作品"windmill"
(2000)のためには、シート状の太陽電池センサとともに、造形物「風車」を回転
させる、MIDIモーターコントローラを開発しました。詳しい紹介はWebでの解説
[http://nagasm.org/ASL/ipsj2001/] を参照して下さい。

IAMASの新世代舞台芸術プロジェクトからの依頼で、筋電センシングではなくて、
逆方向、つまりシステムからの電気刺激をPerformerに与える、という領域に挑戦
しました。MIDI生体電気刺激装置"PiriPiri-3"を開発し、具体的な作品公演と
しては、作品"It was going better If I would be sadist truly."(作曲・古舘健)、
作品"Flesh Protocol"(作曲・赤松正行)、作品"流星礼拝"(作曲・三輪眞弘)が無事に
成功しました。Webでの解説[http://nagasm.org/ASL/SIGMUS0205/] 
も参照して下さい。

MIDIを受けてLEDが光る、というのは市販の電子楽器を含めてなんでもない事ですし、
MIDIを受けて照明機器を調光制御する、というのもAmericanDJ社の製品などで普通
に行われています。ところが、SUAC内「瞑想空間」という特殊な「場」をインスタ
レーション展示空間として活用した作品"靄夜"では、1辺10メートルほどの立方体と
なる空間に64個の高輝度白色LEDを配置し、これをMaxのMIDIからON/OFFでなく
128段階の連続値として個別にリアルタイム調光制御しました。ここに、東野珠実さん
の演奏する笙ブレスセンサのパフォーマンスや、川村武子さんの「舞い」による
パフォーマンスが絡む、という新しい企画が進行中です。詳しい紹介はWebでの解説
[http://nagasm.org/1106/moya/] を参照して下さい。

(図104) "靄夜"のメインパッチ [moya.GIF]

かつてSGI IndyをプラットフォームとしRMCPを用いて実現していた「ネットワーク
セッション」については、"GDS (global delayed session) Music"という新しい
モデルを提唱するとともに、具体的にその動作を実装した試作モデルとして、Max4/MSP2
を活用したシステム"Improvisession-II"を開発しました。CNMATの研究成果である
OpenSoundControlを活用して、3人のPlayerを想定した計3台のPowerBookおよび
iBookに固定IPを設定し、AirMacでイーサネットに接続しました。音源は全て内蔵の
QT(GM)音源のみで、マウスにて画面内のキーボードを演奏しました。この詳しい紹介は
Webでの解説[http://nagasm.org/ASL/GDSM/] を参照して下さい。

(図105) "Improvisession-II"のメインパッチ [gdsm.GIF]

■おわりに

Computer Musicを中心としたメディアアートの活動の、ここ10年ほどを駆け足で整理
してみました。本稿はもともと、「いつもそこにMaxがいた」というような回顧録にする
つもりはなかったのですが、いろいろな他の要素とこれだけ連携して、その中心となって
人間の創造性を支援するMaxというのは、執筆してみてあらためて凄いと確認しました。
これが2002年、Kit Claytonの"Jitter"でまた新たな境地を拓く、というのは、同時代
を生きる者としてとても幸せに思います。皆さんとともに、Maxという揺籃環境を活用して
よりクリエイティブに、創造性と触覚を広げて頑張っていきたいと思っています。
なお、文中に105枚ほど、システム図やMaxパッチのスクリーンショット等を資料として
用意しましたが、紙面の関係でその大部分は掲載できませんでした。また、Max/MSPを
話題の中心とした関係で、作品の一部としてオリジナル制作したセンサ群やプログラム群
について、あるいは公演風景の写真なども、具体的には紹介できませんでした。詳しくは
私のWeb [http://nagasm.org] を参照し、レクチャータイトルやキーワードを検索して
みて下さい。