\documentstyle[a4j,ascmac,fancyhd,11pt]{jarticle} \pagestyle{fancyplain} \lhead[\fancyplain{}{}]{\fancyplain{}{\sf 紀要「瓜生」原稿}} \chead[\fancyplain{}{}]{\fancyplain{}{\bf \thepage}} \rhead[\fancyplain{}{}]{\fancyplain{}{\sf Art \& Science Laboratory}} \cfoot{} \setlength{\footskip}{20pt} \setlength{\headheight}{20pt} \setlength{\oddsidemargin}{0.8in} \setlength{\evensidemargin}{0.8in} \begin{document} \sf {\large {\bf 京都芸術短期大学紀要「瓜生」研究論文 }} \begin{center} {\huge {\bf Chaos理論とComputer Music }} \end{center} {\large {\bf 長嶋洋一 }} 映像研究室 \section{はじめに} 「統合的なComputer音楽環境」として1991年より開始した``PEGASUS Project'' (Performing Environment of Granulation, Automata, Succession, and Unified-Synchronism)では、従来からComputer Musicの分野で研究されているテーマ の中で統計的な情報処理に関する幾つかの視点、すなわち自動作曲\cite{chadabe}・ Granular Synthesis\cite{nagasm2}・フラクタル\cite{degazio,beyls}・ 時間的な統合・音楽的構造の継承・インタラクティブ演奏環境などの要素技術を 順に研究し、ボトムアップ的な構築を目指している。 昨年は第1ステップとして、統計的なComputingに親和性のあるGranular Synthesis 音源をポータブルに実現し、パラメータをNeural Networkによってリアルタイムに 制御する\cite{nagasm1}とともに、この音響を活用した 作品(``Growing Glue Grains''、``Chaotic Grains'')を実験的に作曲 した\cite{nagasm4}。 Computer Musicの研究においては、このように理論やシステムの構築だけでなく、 実際に音楽作品の場で実現・検証していくアプローチも重要である。 本稿では、まず自動作曲という研究分野の状況を概観し、次にこの ``PEGASUS Project''の第2ステップとして``Chaos''を取り上げた 経緯と、研究課題および感性情報処理との関係について議論する。 さらに経過報告として、実現されたシステムの概要と音楽的意義を検討し、2つの Chaos系の相互作用をもとにした新しいChaos生成系(CIM)の考え方と、現在進行中 の研究状況について述べる。 そして最後に、CGと音楽とのコラボレーションによるマルチメディア作品として上演 された最新作(``CIS (Chaotic Interaction Show)'')でのシステム構成・音楽的 アプローチを紹介する。 \section{自動作曲の歴史と課題} \subsection{``Random'' Composition} 「自動作曲」は、コンピュータの歴史とともに始まったComputer Music研究の スタート時からのテーマであり、その一種「サイコロ音楽」は50年近い歴史をもつ。 これは現代音楽において「12音音楽」と結び付いたもので、Computerが生成した乱数 を音楽要素(音程・リズム・強弱など)に対応させて「作曲」する。完全な乱数では 無秩序な音楽となるために、ここに一種のフィルタとして伝統的な音楽ルールに 従った規則を与え、最終的に音楽として聴こえるようにヒューリスティックに チューニングしたシステムが使われてきた。 たとえば乱数出力を音程に対応させ、和声学のルールに従って厳しい禁則処理を 施せば、教科書的なコラールが生成される。また、モーツァルトの作品群を膨大に 記憶させ、メロディーや和声の特徴を抽出した音楽的語法データベースを作り、 ランダムな音列にこのフィルタをかければ、「モーツァルト的なメロディー」を 生成することができた。 しかし、音楽には時間構造やフレージング等の階層的構造があり、「単純な乱数 生成+音楽規則のフィルタ」という自動作曲では、人間の感性に訴える面白い作品が 生まれるには何かが決定的に欠けている、との認識が一般的であった。 \subsection{Interactive Composition} もう一つのアプローチとしては、現代音楽のミニマルミュージックと結び付いた もので、Computerが一定の周期で繰り返される音楽要素(フレーズ・リズムなど) を演奏して、ここにリアルタイムにパラメータの変更を加える、という「作曲」 スタイルがある。 これは「Real-Time Composition」という考え方で、バッハやモーツァルト本人が 演奏する際にそうであったように、あるいはジャズの演奏者がそうであるように、 即興演奏Improvisationを一種の作曲と見なすことと対応している。 Macintoshコンピュータ上のソフト``M''がその代表で、演奏される音楽作品は 事前にMusical Events Sequenceとしてプログラムされておらず、繰り返しの アルゴリズムだけが用意されて、演奏の際にオペレータ(演奏者)の操作によって 刻々と変化する音楽情報を生成する。これはソフト``Max''などでも容易に実現 できるが、全体的な音楽的構成のない、刹那的な音楽になりがちな問題点が指摘 されている。 \subsection{Algorithmic Composition} これに対して、作曲家の頭の中の作曲活動・音楽的想念をそのままモデル化・ルール 化して記述するという、「作曲アルゴリズムによる自動作曲」のアプローチも、 根強い支持を受けて研究されてきた。 ここでは、伝統的な音楽技法や規則に対応するばかりでなく、新しいアルゴリズム として新しい作曲パラダイムを生み出すことも指向されており、従来の自動作曲を 発展させる糸口として注目されている。 \subsection{「音楽的」要素の自動生成} ここで問題となるのが、従来からAIの分野で議論となっている、「人間の思考を実際 に解析して忠実にモデル化する」「振舞いとして人間のような動作をすれば中身は 問わない」という2つの方針である。現在のところでは、音楽情報処理に関しては 音響物理学・聴覚心理学・認知心理学から音楽心理学・美学までの領域を含めて あまりに未開拓の分野が多く、前者のアプローチは非常に困難である。 音楽情報処理を「感性情報処理」の一例としてとらえた研究においても、具体的には システムのルールとして、ヒューリスティックな調整を必要として いる\cite{katayose}。 この意味で、将来的に人間の音楽情報処理がより研究された時点では、人間の実際の 音楽行動をモデリングしたアプローチも可能となるかもしれないが、当面は Black Boxとして、「人間が作曲したのかComputerが作曲したのかわからない」作品 を生成するシステムを実現するだけでも、十分に研究すべき課題が山積していると 言える。本稿で紹介するChaosによるアプローチも、そのような「音楽的」要素を 自動生成するための一つの可能性を求めたものである。 \section{Chaosによる音楽情報処理} \subsection{1次元Chaosの振舞い} 自然界で散見するChaos現象は、その単純な数式表現と対照的に複雑な振舞いをする ことから、情報処理の分野でもいろいろな応用が試みられて いる\cite{devaney,aihara}。 本研究では、もっとも単純な1次元Logistic Function: {\boldmath \[ X_{n} = \mu \cdot X_{n-1} \cdot (1 - X_{n-1}) \] } に限定しているが、これだけでも十分に興味ある結果を得ることが可能であり、 今のところ十分な理解のないまま2次元・3次元等に拡張する予定はない。 <リスト1>は、筆者が開発した1次元Logistic Functionの「可視化プログラム」の ソースリストである。このプログラムは、Nifty-Serveの人工知能フォーラムの データライブラリにフリーウェアとして公開されており、パソコンPC-9801上で マウス操作によって任意の場所を自在にズーミングして、この関数のフラクタル 性を体験できる。 この漸化式では、{\boldmath \( 1 < \mu \leq 3 \)} の領域 では {\boldmath \( X_{n} \)} の値は初期値に関係なく1つに収束し、 {\boldmath \( \mu \)} とともに次第に単調増加していく。 ところが {\boldmath \( 3 < \mu \)} の領域で増加させて いくと、1値に収束していた {\boldmath \( X_{n} \)} の値は異なる2値への 分岐を起こし、さらに4値、8値と次第に収束先が複数になる複雑な変化を経て、 やがてついには ``Chaos Zone'' に突入する。 このChaos状態の領域で完全なランダム状態であるならば、一般の乱数生成系と 変わらないことになり、従来の自動作曲の乱数源との違いがないことになる。 しかしChaos系では、この領域のあちこちに「窓」と呼ばれる部分があり、ここでは 3値、5値、6値などの限定された収束値に縮退する。そして「窓」とChaos状態 との境界の領域では、パラメータを外部から摂動させることで、Chaos状態と 周期振動状態とを行き来するような、興味ある振舞いを示す。 \subsection{Chaosのフラクタル構造と音楽} この1次元Chaos動作を解析してみると、あるパラメータ領域を拡大した中に、 より大きなスケールの構造と類似した構造を発見できる。これはフラクタル 構造の本質である「自己相似性」であり、よく知られたMandelbrot集合や Julia集合と同様に、拡大しても拡大しても同じ構造を繰り返す。 ところで音楽においても、これと同様の階層性と自己相似性は指摘されており、 たとえばBartokのように、自己相似性を数学的指導原理として、 フィボナッチ数列と黄金分割を基本に作曲した作曲家もいて、フラクタル 構造の数学的性質は作曲のひとつのテーマとなっている\cite{bidlack}。 サイコロ音楽やミニマルミュージックに決定的に欠けている、音楽の全体的構成 や階層構造をComputer Musicで実現するための一つの可能性としてフラクタルや Chaosが注目される理由の一つは、この自己相似性である。 \subsection{Chaosの周期性と音楽} もっとも単純な例として、この {\boldmath \( X_{n} \)} の値をMIDIノート ナンバに割り当てると、周期的に変化する一種のフレーズに対応させる ことができる。この場合、2周期であればトレモロ的なメロディー、 4周期であれば装飾音的なメロディーになり、さらに6周期や9周期の 聴取実験によると、変拍子系のビートやシャッフルのビートにも移行 しうる音楽的可能性をもっている。 またChaos出力に対する12音生成確率のフィルタを調整することで、古典的 和声の枠組みに従った「分散和音」とすることも容易である。 さらにChaosパラメータを微小に変化させていった場合、同じ2周期でも 2つの収束点の値が次第に変化するために、あるメロディーからの「変奏」 のように知覚され、非常に長い周期を持ったメロディーを高速で演奏させる ことで、Jazzのアドリブ的なフレーズと知覚できる結果も得られた。 これは従来の単純な乱数生成系では見られない特徴であり、音楽の基本的要素 である「時間的繰り返し」という特性にChaos動作の周期性を対応させ、 さらにパラメータを変化させて周期状態が変化し、場合によっては Chaos状態(クラスター音楽に対応?)にも推移する、という発展の可能性を 示している。 \subsection{``Chaotic Grains''での実現例} このChaos系による自動作曲の具体的な実現として、1993年2月(音楽情報科学研究会 主催・現代音楽協会共催「電楽II」)に初演された作品``Chaotic Grains'' では、単純な1次元Logistic Functionを使用して、リアルタイムにChaos状態を 変化させる音楽生成ソフトを作曲の一部として製作した。 並列処理によって8系列それぞれ別々のサンプリング速度で動作するChaos出力は、 最終的なMIDIイベントに変換される前に、音域・音量変化・定位・音色などの フィルタとともに、12音平均律の中での音程生成確率を与えるフィルタを通過する ことで、非Chaos音源群の演奏と結合された。 演奏の際には、時間とともに推移するSequenced DataおよびJoy-Stickコントローラ を操作する演奏者によって、各種のパラメータやChaosパラメータ、また12音生成 確率パラメータが刻々と変化し、リアルタイム作曲が実現された。 \subsection{``Chaos Generator''の概要} <Fig.1>のブロック図は、後述する最新の作品``CIS (Chaotic Interaction Show)'' の一部として製作されたソフトウェアの一部(同時に動作している独立8系統の うちの一つ)である。 全てのパラメータとトリガはパソコンのキーボード・マウスとMIDIからコントロール され、音楽の中ではシーケンスデータと演奏者からのセンサによって与えられる。 発音イベントは遅延パラメータを経て、リアルタイムに演算されている Logistic FunctionのブロックでChaos状態ないし多分岐振動の倍精度実数データを 供給する。 このデータは、疑似リズムを生成するイベントフィルターによって「発音」「休符」 の選択を受け、最高音・最低音の音域指定パラメータと乗算される。 そしてさらに、12音それぞれに別個に指定される「音程出現確率」データの重み付け 乗算を受けて、実際に対応するMIDIノートナンバが得られる。 さらに「ディクレシェンド」パラメータによる減衰データをMIDIベロシティとして 与えて、最終的なMIDI音源群へのノートイベント出力とされる。 音楽の中ではそれぞれのパラメータは刻々と変化し、また演奏者からのトリガは CGモニタを見ながらの即興に任されているために、演奏したたびに異なった音楽が 生成され、演奏時に初めてその作品の音楽要素が決定(作曲)される。 \section{孤立Chaos系からCIMへ} \subsection{Chaotic Interaction Model (CIM)} Chaos系が一定のパラメータでFree Runして生成するChaos状態だけでなく、 2つ以上のChaos系の同期・相互作用についての研究も進められて いる\cite{isabelle,pecora}が、これは2次元Chaosに類するものであり、 あくまで全体の系に共通の時間軸を設定している。 ところで、音楽演奏における複数の演奏者の独自性と相互作用、あるいは作曲家の 思考過程に存在する複数のエージェントを想定すると、音楽生成系としての Chaos源が複数個存在していて、それらが非同期的に相互作用する 新しいシステムが考えられる\cite{nagasm3}(<Fig.2>)。 このシステム(CIM)では、まったく無作為に相互のパラメータを交換するのでなく、 たとえばNeural Networkを学習によってチューニングするように、なんらかの 最適化が必要である。しかし、周期状態とChaos状態との境界を微妙に行き来する ような状態に設定することで、音楽的に興味ある生成データが実験的に得られてきて おり、さらにSimulationと検証が進められている\cite{nagasm5,nagasm6}。 \subsection{CIMの応用} <Fig.3>は、CIMを応用したシステムの構想図である。 ここではCIMは音楽要素の生成のGeneratorとして位置づけられており、さらに 音楽的判断を行う感性情報処理モジュールと結合している。 伝統的なスタイルでの作曲(スコアを書く、シーケンスデータを作る)という フェーズでは、CIM動作の初期状態とともに、感性情報処理モジュールが参照 する「音楽知識データベース」が構築される。 このモジュールは音楽演奏の際に、生成される音楽要素をリアルタイムに評価 して、必要に応じてシステムパラメータを変更するフィードバックループを 形成する。 一方、「リアルタイム作曲」のフェーズでは、実際に生成された音響を聴きながら、 演奏者ないしステージ上の作曲者が一種のImprovisationとしてセンサ群を利用して パラメータをリアルタイムコントロールすることもできる。 これによって、作品は演奏されるたびに異なった展開をもった、リアルタイム・ インタラクティブ作品として姿を現すことになる。 \section{``CIS''の実現例} \subsection{``CIS (Chaotic Interaction Show)''} この作品は、イメージ情報科学研究所とIAKTAが主催した「芸術と知識工学の ための国際ワークショップ」(1993.9.16 Osaka) のデモンストレーション コンサートで初演され、さらに翌日に「神戸国際現代音楽祭」(ポートアイランド ・ジーベックホール)で再演された。 作品の基本コンセプトはタイトル通り``Show''であり、Chaosシステムによって リアルタイムに生成される音楽要素、ステージ上のパーカッション奏者の演奏 でトリガされる音響、そしてCGアーティスト:由良泰人(映像研究室)の リアルタイムCGとの「共演」を実現した。 \subsection{``CIS''のシステム構成と情報処理} <Fig.4>は、この作品のシステムブロック図である。 音楽と映像に関するすべてのリアルタイム情報はMIDI信号として与えられ、 システム内には特別に定義されたプロトコルのMIDIが一種のLANとして配置された。 ステージ上には、MIDIドラムパッドを演奏するパーカッショニストと指揮者が 立ち、指揮者はMIDIコントロールパッド・ジョイスティックコントローラ・ ワイヤレスパワーグローブによって、特別に定義されたMIDIコントロール情報を 送る。 両者の足元にはビデオモニタが置かれ、ステージ後方の大スクリーンにプロジェクタ で投射されたCGと同じ映像を見ながら、さらに音響を聴きながら、即興によって 「演奏」を行った。 2台のノートパソコンのうちの1台は、作品の一部であるオリジナルのソフトウェア が走り、もう1台は通常のMIDIシーケンサによって、BGM部分の演奏情報とシステム パラメータが記述されている。 BGM部分の情報はごくわずかであり、大部分の音楽要素(音列・リズム等)は ステージ上でリアルタイムに生成(作曲)された。 音源群は通常のPCM音源・DCF音源に加えて、作曲者の製作によるオリジナル音源と して、Granular Synthesis音源とSinusoid音源がそれぞれ2台ずつ使用された。 CG系も同じようにMIDI情報によってコントロールされ、2台のAMIGAコンピュータが 2種類のソフトウェア(``Performer''、``Bars \& Pipes'')を使用した。 前者はパーカッション奏者のトリガによって生成される一連のアニメーション の描画に使用され、後者は背景映像として刻々と変化する画面に使用した。 <Fig.5>は、この作品のコントロールメッセージを示したフロー図である。 パーカッション奏者の演奏するドラムパッドに内蔵されている音源は使用せず、 全ての情報はMIDI化されてシステムに取り込まれ、パーカッション音として アサインされる場合でも、オリジナルソフトウェアによって刻々と音色の 割当を変更した。 \subsection{``CIS''の音楽的コンセプト} この作品の音楽的なコンセプトは、「Tonalityのメタモルフォーゼ」である。 オリジナルのChaos Generatorソフトウェアが生成する音楽要素は、MIDI ノートナンバによって12等分平均律の体系に取り込まれており、ここでは 音程出現確率を刻々と変化させることで、スケールがもたらすTonalityが いくつかのブロック間でなめらかに変化していく。 この変化は背景CGの変化ともリンクしており、音楽は局所的にはWhole Tone Scale、琉球音階、Diatonic Scale、Pentatonic Scale、12音音階などに対応した Tonalityを持ちながら、次第に次のTonalityへと推移していく。 そしてもう一つのコンセプトは「リズムのメタモルフォーゼ」である。 中間部では具体的に打楽器音色の背景音楽がChaosの周期的出力によって生成され、 指揮者のセンサーパッドからのトリガで5beat・6beat・7beat・8beat・9beatなどの 拍子の変化を受けながら、さらになめらかに加速していくことでパーカッション奏者 を挑発する。 なお、CGは基本的に「トリガ」情報によって音楽情報とリンクされた。 CGシステムとしてはMIDIパラメータによる連続コントロールに対する変化を生成 することも可能だったが、全体のMIDI情報のトラフィックが非常に多量に なったために、今回は「トリガ主義」で構成した。 この点は、今後のマルチメディア作品のRealizationにおける課題であると 考えている。 \section{おわりに} Computer Music研究に関連して、今回は特にChaosについて重点を置いて紹介した。 しかし、PEGASUS (Performing Environment of Granulation, Automata, Succession, and Unified-Synchronism) projectはまだ始まった ばかりであり、いろいろな要素の中にはアイデアだけ・構想だけの段階も多く、 また全く白紙の領域もある。 今後も一つずつステップを追って理解を進めていくとともに、作品の形で実際に 具体化するアプローチを続けていきたい。 \begin{thebibliography}{99} {\small \sf \bibitem{chadabe} L.Chadabe : Interactive Composing. Proceedings of International Computer Music Conference, pp.298-306, 1983. \bibitem{nagasm2} Y.Nagashima : Real-time Control System for ``Psuedo Granulation''. Proceedings of International Computer Music Conference, pp404--405, 1992. \bibitem{degazio} B.Degazio : Musical Aspects of Fractal Geometry. Proceedings of International Computer Music Conference, pp.435-442, 1986. \bibitem{beyls} P.Beyls : The Musical Universe of Cellular Automata. Proceedings of International Computer Music Conference, pp.34-41, 1989. \bibitem{nagasm1} Y.Nagashima : Neural Network Control for Real Time Granular Synthesis. Proceedings of 6th Annual Conference of JSAI, vol.1, pp.381-384, 1992. \bibitem{nagasm4} Y.Nagashima : Musical Concept and System Design of ``Chaotic Grains''. IPSJ SIG Notes Vol.93, No.32, pp9-16, 1993. \bibitem{devaney} Robert L.Devany : An Introduction to Chaotic Dynamical Systems (Second Edition). Addinson-Wesley Publishing Company, 1989. \bibitem{aihara} K.Aihara, T Yoshikawa : Ordered and Chaotic Systems and Information Processing. Journal of JSAI, vol.8, no.2, pp.179--183, 1993. \bibitem{katayose} H.Katayose et al. : Music Interpreter in the Kansei Music System. Proceedings of International Computer Music Conference, pp147-150, 1989. \bibitem{bidlack} R.Bidlack : Chaotic Systems as Simple (but Complex) Compositional Algorithms. Computer Music Journal, vol.16, no.3, pp.33--47, 1993. \bibitem{isabelle} S.Isabella, A.Oppenheim, G.Wornell : Effects of Convolution on Chaotic Signals. Proceedings of 1992 IEEE ICASSP, vol.4, pp.133--136, 1992. \bibitem{pecora} L.Pecora, T.Carroll : Synchronized Chaotic Signals and Systems Proceedings of 1992 IEEE ICASSP, vol.4, pp.137--140, 1992. \bibitem{nagasm3} Y.Nagashima : Chaotic Interaction Model for Hierarchical Structure in Music. Proceedings of 46th Annual Conference of IPSJ, vol.2, pp.319--320, 1993. \bibitem{nagasm5} Y.Nagashima, H.Katayose, S.Inokuchi : Neural Network Control for Real-Time Composition. Proceedings of 7th Annual Conference of JSAI, pp.207-210, 1993. \bibitem{nagasm6} Y.Nagashima, H.Katayose, S.Inokuchi : PEGASUS-2: Real-Time Composing Environment with Chaotic Interaction Model. Proceedings of International Computer Music Conference, pp.378-390, 1993. } \end{thebibliography} \end{document}