NIME03レポート

2003年5月 長嶋洋一


2003年の5月21日から5月27日まで、 NIME03 に行ってきました。 伝統あるICMCとはまた違う、新しい国際会議NIMEならではの雰囲気と内容、そして日本の学会と違って学生発表/女性研究者の充実に圧倒されつつ、美しい街MontrealのMcGill大学を舞台に楽しく過ごすことができました。 ここでは、次回、2004年6月3-5日にSUACで開催する NIME04 のために、このNIME03の模様を報告します。 これを参考にして多くの方々が、NIME04での研究発表、作品発表、会議参加、コンサート参加、スタッフ、後援などの形で協力・参加していただければ幸いです。

|  NIMEとは |  SUACとは |  Montreal旅行記 |

|  NIMEチラシの片面 |  NIMEチラシのもう片面 |


2003年5月22日(木)

これがNIME03の会場であるMcGill大学・音楽学部の「Pollackホール」です。

NIME03では、午前のセッションはコンサートと同じPollackホールを使いました。 入ってみると、初日冒頭のWelcome Addressが既に始まっていました。

"Paper Session I"の1件目、 "Cormac Cannon, Stephen Hughes, Sile O'Modhrain"による EpipE: Exploration of the Uilleann Pipes as a Potential Controller for Computer-Based Music の発表です。 これは、スコットランドの伝統楽器「バグパイプ」をセンサの塊のような新楽器として作り、さらにその音響合成についてもサンプリングされたサウンドなどでなく、きちんとダブルリードの物理モデル音源で生成しているというもののようでした。 CPUはPICです。 写真は撮れませんでしたが、ちらっと実演もしました。

"Paper Session I"の2件目、 "Diana Young, Georg Essl"による HyperPuja: A Tibetan Singing Bowl Controller の発表です。 これは、チベットの楽器「Singing Bowl」(金属製のボウルの縁を、布を巻いた「ばち」で擦って発音する)をモチーフとした新楽器です。 ボウルの部分には何もしないで、ちょっと太めの「ばち」の中に加速度センサやPICを入れてワイヤレスで送るというもので、これまた音響合成については、きちんとした物理モデルにより、実際の金属製のボウルの振動から、さらに現実には存在しない音響までをスムースに合成していました。 発表者のDianaさんはMITメディアラボの研究者で、Teresaさんもそうですが、MITにはこういう看板になるような颯爽とした女性研究者が多いような気がします。

次のセッションは"Keynote I"で、MIT Media LabのJoe Paradiso氏による Dual-Use Technologies for Electronic Music Controllers: A Personal Perspective という招待講演でした。 世界にアッと驚く新楽器を発表し続けるMIT Media Labの重鎮の、これまでの「コダワリの歴史」の披露で、まぁ圧巻でした。 写真にはありませんが、PDFペーパーでその濃い中身を堪能して下さい。

午後のペーパーセッションは会場を講義室に移して、午前(25分)に比べてやや短かめ(20分)の発表です。まずは "Report Session I"の1件目、 "Gary P. Scavone"による THE PIPE: Explorations with Breath Control の発表です。 ちょっと太めのパイプに圧力センサを仕込んでスイッチも並べた新インターフェースなのですが、実際にデモったところでは、かなり「息」からサウンドまでのレスポンスが遅く、楽譜にある音符を演奏するというような用途ではありません。 この発表者はコンサートでも作品発表しましたが、作品のメインはノイズをブレスでコントロールしていて、楽器の特性と音楽は合致(楽器の弱点をカバーする音楽(^_^;))していました。 CPUはBasic Stampです。

"Report Session I"の2件目、 "Marije A.J. Baalman"による The STRIMIDILATOR, a String Controlled MIDI-Instrument の発表です。 彼女はベルリン工科大の学生?で、ドイツ訛りの英語は難解でした(^_^;)。 木製のケースで持参した楽器は、4本の弦をセンシングするもので、CPU(センサtoMIDI)はSTEIM社のSensorLabを利用していたようです。 パラメータのスケールマッピングなどは定番のものなので、ちょっと新規性がよく判りませんでした。

"Report Session I"の3件目、 "Scott Wilson, Michael Gurevich, Bill Verplank, Pascal Stang"による Microcontrollers in Music HCI Instruction - Reflections on our Switch to the Atmel AVR Platform の発表です。 インターフェースのためのCPUの選択について比較検討して、我々はアトメルのAVRにした、というような内容のようです。 写真は発表者の顔(スクリーンは次の発表のもの)だけです。

"Report Session I"の4件目、 "Tue Haste Andersen"による Mixxx: Towards Novel DJ Interface の発表です。 DJのためのミキサーというインターフェースについての研究です。 MIDIベースのセンサ部分は既製品にお任せ、出力部分の音響信号処理もまぁサンプルプレイバック中心ということで、ちょっとNIMEとしてはもの足りませんが、大学院生が自分の好きなテーマでやっている研究、という迫力は伝わってきました。

コーヒーブレークをはさんで、次の "Report Session II"の1件目、 "Serge Lemouton, Diemo Schwarz, Nicola Orio, Norbert Schnell"による THE PIPE: Explorations with Breath Control の発表です。 スクリーンを見ても、なんだか美学的な前フリが半分ぐらいでしたが、スコアフォローについてのサーベイもののようでした。 ちなみに2日後の会議では、IRCAMの彼Nicola Orio氏が、NIME04(日本)に続いて、NIME05(パリ)を主催する、と手を挙げました。

"Report Session II"の2件目、 "Caroline Traube, Philippe Depalle, Marcelo Wanderley"による Indirect Acquisition of Instrumental Gesture Based on Signal, Physical and Perceptual Information の発表です。 主にバイオリンをモデルにした弦楽器物理モデル音源による音響合成について、物理モデル音源パラメータと、聴覚的なパラメータとのマッピングによって表現力をアップしようとしたようなのですが、ちょっとまだ結果としては物足りなかったようです。

そしていよいよ "Report Session II"の3件目は、僕(Yoichi Nagashima)が Bio-Sensing Systems and Bio-Feedback Systems for Interactive Media Arts を発表しました。 ネタ的には既に国内での音楽情報科学研究会とかで1年ぐらい前に発表しているもので、最後にチラッと追加しただけのものですが、来場者にとっては新しい報告もありました。 写真は学生にカメラを渡したので、自分としてはなんだか照れくさいですが、ノーカットです。 最後の質疑では、たぶん初めてですが、「笑い」も取れたので、自分としては満足です(^_^;)。

無事に自分の発表のあるペーパーセッションも終わり、ここからは別の部屋でのポスターセッションを覗きました。 この日のポスター研究発表は、 "Sukandar Kartadinata"による The Gluiph: a Nucleus for Integrated Instruments という発表、 "Jean-Michel Couturier, Daniel Arfib"による Pointing Fingers: Using Multiple Direct Interactions with Visual Objects to Perform Music という発表、 "Eric Singer, Kevin Larke, David Bianciardi"による LEMUR GuitarBot: MIDI Robotic String Instrument という発表、 "Chad Peiper, David Warden, Guy Garnett"による An Interface for Real-time Classification of Articulations Produced by Violin Bowing という発表、 "Zack Settel, Cort Lippe"による Convolution Brother's Instrument Design という発表、 "Insook Choi"による A Component Model of Gestural Primitive Throughput という発表、の6件でしたが、写真はその一部だけとなりました。

この晩にも現地企画のコンサートがあったのですが、力尽きて行けませんでした。(^_^;)


2003年5月23日(金)

NIME03も2日目になった「Pollackホール」です。

建物の入口のところでは、朝の9時前から、プログラムにないゲリラ的なデモが行われていました。 このあたりも、若い国際会議のNIMEっぽいですね(^_^)。

朝イチのセッションに向けての準備風景です。 この日最初のセッションの座長は、McGillのイチロー・フジナガさんです。 イチローさんとは、1991年に初めてICMCに参加した時にお世話になって以来、ICMCのたびに世界各地で再会する、というお友達になっています。 来年はぜひ、SUACに来て欲しいです。

"Paper Session II"の1件目、 "Ali Momeni, David Wessel"による Characterizing and Controlling Musical Material Intuitively with Geometric Models の発表です。 Jitterを使って、3次元空間で物理モデル音源による音響合成を可視化したものでした。 グラデーションでビミョーにモーフィングされたパラメータと、対応した音響のスムースな変化が気持ちいいデモでした。

"Paper Session II"の2件目、 "Matthew Burtner"による Composing for the (dis)Embodied Ensemble: Notational Systems in (dis)Appearances の発表です。 バージニア大学の所属ですが、たぶん彼女はフランス人で、フランス訛りの難解な英語に悩まされました(^_^;)。 スコアに一つの音として記述される個々のサウンドが、それ自体の内部で物理モデルに従って音色変化していくように階層的に記述する、という、音楽的には自然な発想のシステムについての研究でした。

"Paper Session II"の3件目、 "Sergi Jorda"による Sonigraphical Instruments: From FMOL to the reacTable の発表です。 ちょっとこれには引いてしまいますが(^_^;)、 FMOLというシステムをずっと続けている研究の延長です。

3件のペーパーセッションのあとのコーヒーブレークの時間にも、またデモに人だかりが出来ました。 「やったが勝ち」のようです(^_^;)。

午前の次のセッションは"Keynote II"で、フランス・グルノーブルのACROE - ICAのClaude Cadoz氏による ACROE-ICA. Artistic Creation and Computer Interactive Multisensory Simulation Force Feedback Gesture Transducers という招待講演でした。 こちらは、フォースフィードバックに対する「コダワリの歴史」の披露で、これも圧巻でした。 写真にはありませんが、PDFペーパーでその濃い中身を堪能して下さい。

午後のペーパーセッションは会場を講義室に移して、ホールではコンサートの仕込みが始まりました。 "Report Session III"の1件目は、東大(機械工学/人間工学)からスタンフォードの大学院に進んだ "Motohide Hatanaka"さんによる Bento-Box: A Portable Ergonomic Musical Instrument の発表です。 楽器として完成されているものでもなく、話を聞いてみるとCCRMAなど音楽でなくて機械工学の授業の課題としてやったものを出したら採択されたので発表、というものでした(^_^;)。 しかし、日本の若者が、(僕とは段違いに)立派な英語で発表している風景は気持ちいいものです。

"Report Session III"の2件目は、電通大からスタンフォードに進んだシラカワさんなど3人、 "Hiroko Shiraiwa, Rodrigo Segnini, Vivian Woo"による Sound Kitchen: Designing a Chemically Controlled Musical Performance の発表です。 キッチンと言えば、北村祐子さんの名著「サイバーキッチンミュージック」を思い出しますが、なんとこれは文字通り、キッチンで音楽を作ろうというものでした。 オレンジの果汁とか化学電池の化学反応からの情報をセンサで拾って(CPUはAVR)、そのまま音響合成パラメータとして利用して音楽を「化学反応と同時進行」のライブで生成しよう、というアイデアにはやられました(^_^;)。 スタンフォードCCRMAでMax Mathews先生のゼミで一緒になった3人が共同で研究した「課題」だそうで、3人のうち2人が女性という学生チームが生き生きと研究発表する姿は気持ち良いものでした。

"Report Session III"の3件目は、 "Joel Ryan, Christopher Salter"による TGarden: Wearable Instruments and Augmented Physicality の発表です。 ダンス系で衣装にセンサ、という路線のもののようでした。

"Report Session III"の4件目は、 "David Ventura, Kenji Mase"による Duet Musical Companion: Improvisational Interfaces for Children の発表です。 これはATRの研究だったのですが、ATRはSARSのため海外出張禁止ということで足止めされて発表者は来れませんでした。 ところが、ATRのMichael J. Lyonsさんは、実家がMontreal(出身もMcGill(^_^))ということで、「帰省」のために来れたので、代打で発表しました。 テディーベア内部にセンサを多数詰め込んで音を出し、子供に遊ばせたらどうなるか、というビデオのデモには会場も爆笑でした。

"Report Session IV"の1件目は、 "David M Howard, Stuart Rimell, Andy D Hunt"による Force Feedback Gesture Controlled Physical Modelling Synthesis の発表です。 フォースフィードバックの付いたジョイスティックで物理モデル音源による音響合成を制御する、というのはアリガチなのですが、1次元の弦モデル、2次元のメッシュ面モデル、さらに3次元のメッシュ立体モデルを3次元空間内で自由に結合した系をぐりぐりと制御してサウンドにする、というデモには圧倒されました。 ここまで卒業研究?でやってしまうというのは、恐るべき学生です。

"Report Session IV"の2件目は、 "Reynald Hoskinson, Kees van den Doel, Sidney Fels"による Real-time Adaptive Control of Modal Synthesis の発表です。 モーダル音響合成のパラメータを任意の2次元画像情報として与えてリアルタイムに生成できるデモは凄いものだったのですが、いかんせん、ときどきノイズが出るのが困ったものでした(^_^;)。

"Report Session IV"の3件目は、昨日のペーパーに続いて2件目の発表となるDianaさんら、 "Diana Young, Stefania Serafin"による Playability Evaluation of a Virtual Bowed String Instrument の発表です。 ただし、どうもこちらはちょっとピンときませんでした(^_^;)。

ここから、この日は"Demo I"のセッションで以下の発表があったのですが、時差ボケのためにそのまま晩のコンサートまで起きているのは無理っぽかったので、Proceedingsで確認した上で、これらを全てパスして速攻でホテルに戻り、3時間ほど爆睡して、再び20時からのコンサートに向かいました。 従って写真はありませんので、以下の論文を参考にしてみて下さい。 デモセッションの発表は、 "Cleo Palacio-Quintin"による Hyper-Flute という発表、 "Jesse Allison, Timothy Place"による SensorBox: Practical Audio Interface for Gestural Performance という発表、 "Kevin C. Baird"による Multi-Conductor: An Onscreen Polymetrical Conducting and Notation Display System という発表、 " Bill Kleinsasser"による Dsp.rack: Laptop-based Modular, Programmable Digital Signal Processing and Mixing for Live Performance という発表、 "Mat Laibowitz"による BASIS: A Genesis in Musical Interfaces という発表、 の5件でした。

Pollackホールでのコンサート第1夜は聴衆という立場なので、まずは開演前にステージなどを撮りました。

1曲目は、Andrew Brouse氏の作品"Conversation"で、なんと金網の籠の中には、脳波センサを付けた作曲家自身と、センサ電極を挿した鉢植えの植物が対峙していて、その「対話」ライブセンシング情報で音楽音響を生成する、というものでした(^_^;)。 これが本当に対話だったのかどうかは、本人と植物自身しか判りません。

2曲目は、研究発表でPIPEセンサを紹介したGary Scavone氏の作品"Pipe Dream"で、ライブでブレスコントロールしたノイズミュージックのような作品でした。

3曲目は、Thomas Ciufo氏の作品"Eighth Nerve"で、プリピアード・ギターを使った即興的作品、とあるのですが、写真を見ても思い出せませんでした(^_^;)。

4曲目は、Daniel Arfib, Loic Kessous, Jean-Michel Couturierkの3氏による4曲からなる組曲"Synthetic Entities"でした。 ジョイスティックを使ってインド風のメロディーを作っていたのが印象的でした。 安らかに眠れた人もいるでしょう。

この日のコンサートの最後、5曲目は、Perry Cook他多数からなるアンサンブルによる作品"Giga Pop Ritual"でした。 McGillのステージ上には4人のPerformerがいますが、さらにステージ上のスクリーンには、プリンストン大学のスタジオにいる3人のPerformerのライブ映像が出ていて、向こうの3人のライブ演奏情報もインターネットで同時中継でMcGillに送られて全体として音楽演奏を実現する、というネットワークアンサンブルの作品でした。 プリンストンのスタジオにも同様にMcGillのステージ映像が送られました。 おぉぉこれはRemoteGIGだったりGDSmusicだぁ、と思って注目していたのですが、セッションとして「合わせる」という部分は巧妙に避けられていて(^_^;)、イントロはミニマル風の演奏でなんとなく始まったところに合流しました。 エンディングは、と言えば、プリンストンの3人の演奏が続いているのにMcGillのステージの演奏者はサッと立ち去ってしまって、そのうち向こうもなし崩しに終わる(^_^;)、というもので、要するにイントロもエンディングもないようなものでした。 そうなるとこの「合奏」はなんだったのかなぁ、という深遠な余韻とともに、第2夜のコンサートは終わりました。


2003年5月24日(土)

まずは朝9時からの "Paper Session III"の1件目、 "Lalya Gaye, Ramia Maze, Lars Erik Holmquist"による Sonic City: The Urban Environment as a Musical Interface の発表です。 元気のいい女性2人の掛け合いのこの発表ですが、各種センサをユビキタスのように身に付けた人間が、どこでもいいので街に出て歩く、そこで体験したライブ情報を動員して音楽をライブ生成する、というコンセプトで、これはヤラレタと思いました。 サウンドスケープなどのようにデータを記録してあとで利用するのでなく、ユビキタス・モバイルコンピュータはセンサからのライブ情報でその場でPdにより音楽音響を生成してしまう、というのは素晴らしい発想だと思います。 さすがスウェーデン(^_^)。

"Paper Session III"の2件目、 "Michael J. Lyons, Michael Haehnel, Nobuji Tetsutani"による Designing, Playing, and Performing with a Vision-based Mouth Interface の発表です。 これはとことん「口のコントロール」にこだわったセンサで、CCDカメラで人間の口元を撮影して画像認識から「口の開け方」を検出するというものです。 デモサウンドとしてはモロにジミヘンのトーキングモジュレータっぽいのが予想通りに出て来ました(^_^)。

"Paper Session III"の3件目、 "Donna Hewitt, Ian Stevenson"による Emic - Extended Mic-stand Interface Controller の発表です。 この2人のコラボレーションは、女性はボーカルパフォーマンスとしてマイクを使う、男性はそのマイクをセンサとして開発する、という組み合わせでした。 考えてみれば、マイクというのは、ボーカルPerformerからの働きかけとして、撫でたり投げたり回したり叩いたり踏んだり蹴ったり握りしめたりテレミンぽく揺すったり・・・・と色々とアクションを受けているので、それなら色々とセンサを仕込んだ特製マイク(スタンド)という「新楽器」を作ってしまおう、という事でした。 これまたヤラレタ、です。 スタンドの台座部分のフットスイッチとかマイク側面のタッチリボン、マイクスタンドの傾き検出のジャイロなどは判りますが、マイクの根元付近に左右方向の超音波センサを入れて、両手を広げて表現する歌手の動きを取る、というのには参りました。さすがです。 マライア・キャリーやロッド・スチュワートのアクションをちゃんと研究しているのでした(^_^)。

コーヒーブレークのあとで、午前中最後のセッションとして「NIME04」がありました。 僕はNIME04のOrganizerということでステージの上に並ぶことになり、前夜にホテルで作った資料を提示して、「世界に誇る楽器の街、浜松でのNIME04にどうぞおいで下さい」とアピールしました(^_^)。 以下の写真は学生による記録です。

この日の午後には、以下のように2つのReport Sessionと1つのDemo Sessionがあったのですが、コンサート出演者は午後いっぱいかけて仕込みやらリハーサルがあり、Proceedingsを確認した上で、セッション参加を断念しました。 従って写真はありませんので、以下の論文を参考にしてみて下さい。

レポートセッションVの発表は、 "Tina Blaine, Sidney Fels"による Design Issues for Collaborative Musical Interfaces and Experiences という発表、 "Andy Hunt, Ross Kirk"による MidiGrid: Past, Present and Future という発表、 "Loic Kessous, Daniel Arfib"による Bimanuality in Alternate Musical Instruments という発表、 "Paul Modler, Tony Myatt"による An Experimental Dictionary of Hand Gestures for Expressive Control of Musical Parameters in Realtime という発表、 の4件でした。

レポートセッションVIの発表は、 "Teresa Marrin Nakra"による Immersion Music: A Progress Report という発表、 "Matt Wright, Adrian Freed, Ali Momeni"による OpenSound Control: Past, Present, and Future という発表、 の2件でした。

デモセッションIIの発表は、 "David Merrill"による Face-Tracking for Gestural and Continuous Control of Parameterized Audio Effects という発表、 "Eric Singer"による Sonic Banana という発表、 "David Muth, Ed Burton"による Sodaconductor という発表、 "Emmanuel Flety, Marc Sirguy"による EoBody : a Follow-up to AtoMIC Pro's Technology という発表、 "Mark Argo, Takuro Lippit, Michael Sharon"による "NIME03@ITP: Demonstration of Student Prototypes" (論文ナシ)という発表、 の5件でした。

また、SARS騒動により日本から行けなくなった2組を含めた以下の3件は、発表としてはキャンセルでしたが、Proceedingsには 載っていました。 "Christopher Dobrian, Fredenic Bevilacqua"による Gestural Control of Music Using the Vicon 8 Motion Capture System という原稿、 "Kazushi Nishimoto, Chika Oshima, Yohei Miyagawa "による Why Always Versatile?: Dynamically Customizable Musical Instruments Facilitate Expressive Performances という原稿、 "Henry Newton-Dunn, Hiroki Nakano, James Gibson"による Block Jam: A Tangible Interface for Interactive Music という原稿、 の3件でした。

そして、この日の午後のセッティングからリハ、本番までの写真が以下です。 全て、スタッフ作業の手慣れた学生が記録してくれました(^_^)。

NIME最終日の最後のコンサート直前に、3件目の招待講演がありました。 STEIMのMichel Waisvisz氏の、いやまぁ気合いの入ったセンサ尽くしの人生(^_^)の紹介とともに、冒頭も最後も、センサを見せつけた即興パフォーマンスで喝采を浴びました。

そして最後のコンサートとなりました。 僕はステージそでにいたので客席からは見ていないのですが、リハから眺めていたので簡単に解説します。 写真はビデオ記録していた加藤さんが同時に撮っていたものです。 大山さんは黒子として僕の付き人をしてくれました(^_^)。

1曲目は、Sergi Jorda, Robin Davies氏の作品"untitled"で、研究発表でも紹介していたFMOLによるフォースフィードバックインターフェースのパフォーマンスです。

2曲目は、John Young氏の作品"Ars Algorymica"で、アボリジニの民族音楽をベースにした作品です。鍛えた身体での熱演でした。

3曲目は、Bob Gluck氏の作品"Zemirot Fantasy"で、タッチシートのセンサを貼付けたリュート様の楽器をインターフェースとして用いた作品の演奏でした。

4曲目は、Donna Hewitt氏の作品"Dyphonia"で、例のセンサてんこもりマイクを使った公演なので期待していたのですが、実際には過激なアクションとかがなくて、おそるおそるセンサを操作しているような感じ(^_^;)がちょっと残念でした。 研究発表ではさんざん各種ボーカリストのマイクアクションを紹介していたこととのギャップが面白かったです。

5曲目は、Joel Chadabe氏の作品"Applegate"で、リハの様子から、どうもPerformerの足下に置いた上向きスポットライトに照らされた手の動きをCCDから画像認識してセンサとして音響操作する作品らしいのですが、実際の公演ではこのセンシング機構がうまく働かず、Performerは口パクならぬ手パクをしていた模様です(^_^;)。 音源としてはKymaを持ち込んでいた唯一の作品でした。

そして6曲目、なんとNIME直前のメイルで僕がトリである事が判明していたのですが(^_^;)、NIME03の大トリをつとめることとなりました。 Yoichi Nagashimaの作品"Quebec Power"の世界初演であります。 16チャンネル筋電センサ"MiniBioMuse-III"も活用しました。 システムは1台のチタニウムでMax/MSP/Jitterでライブ音響処理もライブ映像生成もしています。 去年のMAF2002で公演した作品"Berlin Power"では、音響信号処理にKymaを、映像処理にDV-7PRを使っていたのですが、この両方まで盛り込んだということで、DSP使用率は28%となかなか綱渡りでした。

これで無事にNIME03は終わったのですが、I-CubeのInfusionシステム社というのは実はMontrealにあり、社長がこのあと自宅でNIME関係者のパーティーをするので是非おいで下さい、と招待されて、学生とともに参加しました。 その模様は こちら をどうぞ。