\documentstyle[a4j,ascmac,11pt]{article} \pagestyle{empty} \setlength{\oddsidemargin}{15mm} \setlength{\evensidemargin}{15mm} \setlength{\topmargin}{5mm} \setlength{\headheight}{0pt} \setlength{\headsep}{0pt} \setlength{\topskip}{0pt} \setlength{\footskip}{9mm} \setlength{\textheight}{246mm} \setlength{\textwidth}{170mm} \begin{document} \sf \begin{center} {\Huge {\bf 画像情報と統合化された} \\[2mm]} {\Huge {\bf コンピュータ音楽創造環境の構築} \\[6mm]} \end{center} \subsubsection*{1. はじめに}  本研究ではコンピュータ音楽(Computer Music)創造環境の構成要素として、 これまでにGranular Synthesisとニューラルネットワーク \cite{icmc92}、 カオス \cite{icmc93}、アトラクタ \cite{attract}、 マルチメディア \cite{sigmus}等について検討するとともに、具体的な 作品として実験的な応用を試みてきた。 そして新たな段階として、「汎用の芸術創造/表現のためのプラットフォーム」 の実現を目標とした。これは、音響のモデルと画像のモデルとを対等な オブジェクトとして統合的に駆動する、{\bf ネットワーク化されたオブジェクト 指向型マルチメディア情報生成環境}の構築を目指すものである。 本稿ではこのための第一ステップとして、芸術創造支援システムおよび感性情報 処理システムとしての検討を行った。具体的には、従来から行われてきた コンピュータ音楽や映像芸術のための手法/システムの特殊性を、モデル化された オブジェクト/エージェントとして一般化することを検討する。 また、システム構築のために必要な、時間的シナリオやパフォーマンス情報を メッセージとしてマルチメディア分散処理環境上でリアルタイム処理する手法 について検討する。 \subsubsection*{2. 「目で聴き、耳で観る」システム}  本研究のターゲットを汎用の芸術創造/表現のためのプラットフォームと 規定する際にキーワードとしたのが「{\bf 目で聴き、耳で観る}」という、本質的に マルチメディアなコンセプトであり、図1のようにアルゴリズム作曲の考え方で システム内の情報を扱うことで実現する。 すなわち、まず時間芸術である音楽や映像という感性情報を 時間的空間的に制御するコントロール系に対して、入力情報として「古典的 パフォーマンス情報」(楽譜・コマ割り・Sequence Data等)と 「リアルタイムな入力情報」(音響・画像・動作や操作のセンサ等) とをメッセージとして与える。コントロール系では、これらの情報を統合的に 取り扱うアルゴリズムである「シナリオ」(芸術的ワールドモデル)によって リアルタイム処理し、 サウンド系およびビジュアル系のモデルにメッセージとして送出する。 サウンドやグラフィクスを生成するモデル処理の部分は、システム内で 自由に生息するマルチエージェントとして配置される。ここでは各々の世界 モデルに従い、たとえばサウンド系では「個々の音響レベル」「古典的な Noteレベル」「より高次の音楽プリミティブ」等の階層ごとに、コントロール系 からの時間情報と同期して、音楽を構成する要素を並列処理し独立に 生成する。 \subsubsection*{3. 広義のGranulationとプラットフォーム}  このような階層的なコンピュータ音楽創造環境というのは、海外では従来から 多くのシステムが発表されている \cite{jmacs}。すなわち、楽音合成(音響)レベル での記述から時間軸に沿った古典的音楽記述のレベルまでを、WSのGUIを用いて 統一的に作曲し演奏するという発想であり、この基本部分については本システム でも採用している。 しかし本研究においては、まずサウンド系とビジュアル系とを対等に位置づける とともに、メッセージとして相互の感性情報のIntersectionとInteractionを 積極的に支援している点が特長となっている。そして最大のポイントとして、 これまでの研究では作品に特化した形態で実現していた「広義のGranulation」 のコンセプトを、汎用のアルゴリズムとして提供できる可能性が大きなテーマと なっている。これはサウンド系の例であれば、個々の音響断片要素をGrainと して時間的空間的構造的に「配置」することで高次の音楽的要素の階層を 構成する、というGranular Synthesisの発想を、音楽構造全体の創造に反映させる という構想である。ビジュアル系とともに、このアイデアは今後の研究でさらに 検討していく予定である。 システムを実現するためのプラットフォームとしては、コンピュータ音楽研究 の分野では世界的に標準となりつつあるSGI社のWSによる分散処理を採用した。 具体的には、イーサネットおよびMIDIによる情報ネットワークを利用して、 複数のIndigoやIndyによってサウンド系およびビジュアル系の処理をリアルタイム に並列処理する。 SGIマシンはDSPによるサウンド処理、MIDIによる情報通信、 Open-GLによるグラフィクス処理など、いずれも汎用の環境としての 本システムには好適である。そして、いずれプラット フォームとしてシステムを公開し、アーティスト等に作品創造の環境を提供して いく、という本研究の目標にとっても有意義なものであると考えている。 \subsubsection*{4. むすび}  本稿では、ネットワーク化されたオブジェクト指向型マルチメディア情報生成 環境の構築に向けた研究の方向性と課題について報告した。 このような研究においては実際の作品として成果を試すことも重要であり、 ビジュアル系のアーティストとの交流を含めて、音楽情報科学研究会(SIG-MUS)や コンサート等の機会に積極的に発表していく予定である。 なお、本研究の一部は(財)人工知能研究振興財団の研究助成を受けて行われた。 ここに謝意を表する。 %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \vspace{100mm} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \begin{small} {\sf \begin{thebibliography}{99} \bibitem{icmc92} Y.Nagashima : Real-Time Control System for "Pseudo" Granulation. Proceedings of ICMC, pp.404--405, 1992. \bibitem{icmc93} Y.Nagashima, H.Katayose, S.Inokuchi : PEGASUS-2: Real-Time Composing Environment with Chaotic Interaction Model. Proceedings of ICMC, pp.378--390, 1993. \bibitem{attract} 長嶋洋一, 片寄晴弘, 井口征士 : Attractor Synthesisによる楽音合成システムの検討. 情報処理学会平成6年度前期全国大会講演論文集I, pp.379--380, 1994. \bibitem{sigmus} 長嶋洋一 : マルチメディアComputer Music作品の実例報告. 情報処理学会研究報告 Vol.94,No.71 (94-MUS-7), pp.39--44, 1994. \bibitem{jmacs} 調査報告書「音楽情報処理の技術的基盤」 (『平成4年度 文部省科学研究費 総合研究(B)音楽情報科学に関する総合的研究』 課題番号04352030) , 1993. \end{thebibliography} } \end{small} \end{document}