音楽情報科学・学生レポート集

長嶋洋一


1998年より、静岡大学情報学部で「音像メディア論」という講義を始めました。 今回は1998年12月中旬に4日間、静岡大学浜松キャンパス内「佐鳴会館」ホールでの 集中講義の形式で行いました。大学から借りたSGI O2(CDプレーヤ兼用)が1台、 あとは自宅からクルマで、パソコン3台とKymaと音源モジュールとビデオデッキと ビデオカメラとスキャンコンバータとミキサとMDと数台のセンサなどの機材群に、 OHPやHi-8テープやCDをドカッと持ち込みました。以下は、受講した情報科学科と 情報社会学科の学生が後日提出した、「講義を受けて自由テーマで」という 課題レポートからアトランダムに並べたもの(Webでの公開予告済)です。
レポートのタイトルと内容はほぼそのまま(形式を揃えるための手作業での調整 に加えて、一部文字化け等を修正)ですが、「著者名」「参考文献」は省略して あります。また、それぞれのレポートに添えて自由記述してもらった、この 講義に関する「感想」を、これまた別にアトランダムにシャッフルして列記して みました。講義のタイトルは「音像メディア論」ですが、中身は「音楽情報科学」 である、と最初から宣言しています。また、講義に先立って専用のMLを立ち上げ、 「コンピュータ音楽」という概念についての発言や講義へのリクエストなども 求めましたが、その内容はここでは省略します。なお、個々のレポートの著作権 は各学生に、こうしてまとめた「レポート集」全体の文責と著作権は長嶋に ありますので、無断転載等は御遠慮下さい。リンクされてもいずれ移動します。
こうして並べて改めて読んでみると、いろいろな点で感想や意見についてほぼ 正反対の立場が乱立し、講義として果たしてうまくいったのかどうか、甚だ 悩むところなのですが、自分の限界を晒しつつも、敢えて選択せずに全てを 公開することとしました。それにしても、新設学部の1期生となる静岡大学情報 学部の3回生は真面目でした。ある意味で、たった4日間の集中講義でこれだけの 考察の機会を学生に提供できた、という事に意義があるのかもしれません。 講義の様子を色々と想像するとか、学生の新鮮な視点に刺激を受けるなど、 音楽情報科学に興味ある皆さんへの何らかの参考になれば幸いです。

以下の著者名リスト(順序とは無関係)
阿部秀尚 , 安藤みゆき , 石上善行 , 伊藤誠記 , 岩本昌邦 , 音嶋肇 , 籠橋剛 , 片岡祐介 , 川口明彦 , 川田佳延 , 榊原俊男 , 佐藤秀樹 , 塩沢徳人 , 新藤裕史 , 高岡大介 , 高田保 , 高橋光弘 , 中山竜二 , 成瀬聡 , 日野孝信 , 松澤亮一 , 三橋力麻 , 森田好美 , 保田正之 , 安原洋 , 柳原寛永 , 山上浩史 , 山口俊充 , 山崎志保 , 横田茜 , 渡邊智彦 , 鈴木大介 , 飯田祐子 , 牛屋美里 , 角野弘太郎 , 鴻塚祐佑 , 鈴木一哉 , 高橋さおり , 橋本裕恵 , 降幡健太郎 , 宮武昌子 , 三輪明日香 , 山田まりえ


コンピュータミュージックにおけるインタラクティブとパフォーマンス

概要

コンピュータミュージックの世界において、パフォーマ ンスをすることによって、音楽を作り出す方法が導入されてきて いる。人間とコンピュータとの間の双方向な関係についての考察 を踏まえつつ、人間がパフォーマンスを行うことの意義について 考える。

1.はじめに

Computer Musicというと、MIDIなどの規格によって作成された データをコンピュータが鳴らしたり、「テープ音楽」のような電 子音響の生成をしたり、その結果をコンピュータが演奏している ようすが連想される。このような演奏は、コンピュータから出て くる音、音楽を人間が聞くという関係にある。
またカラオケや、シンセサイザーによるコンピュータに伴奏を させて行う演奏は、コンピュータから一方的に出てくる音に人間 が音を合わせるものである。こうした人間とコンピュータの関係 は、コンピュータから人間への一方的なアプローチが行われてい るといえる。
しかし、現在行われているComputer Musicの世界においては、 人間からコンピュータへの働きかけを行うことによって、双方向 な関係を持つことができるようになっている。すなわち、コンピ ュータと人間によるインタラクティブ・アートが実現できるよう になってきているのである。

2.楽器の演奏からパフォーマンスへ

それでは、人間からコンピュータへの働きかけは、どのように して行われるのかを考える。音楽の情報としてコンピュータから 人間に対して与えられる情報は、コンピュータが演奏する曲であ ったり、今引くべき鍵盤の位置を指示したり、譜面を画面に表示 したりする等の形になる。これらは、いずれも人間に理解できる 音楽の情報の形式である。
それに対して、人間からコンピュータに対して、与える情報は、 MIDIのデータであったり、実際に楽器を演奏した音であったりす る。これらは、コンピュータの内部ではある種のルールをもった 信号としてとらえられる。すなわち、コンピュータに対して送る 音楽情報は、その信号の形を生み出すことができれば、どんな形 式の入力でもかまわないことになる。
入力装置として楽器の形をしているものには「電子ピアノ」や 「電子ギター」であるが、コンピュータに入力された段階では、 その演奏情報はあくまである種の「信号」なのである。したがっ て、computer musicにおいては、音を作り出すものは、楽器の形 式をしていなくてもかまわないということになる。すなわち、 「楽器」という枠にとらわれない、自由な表現が可能になるので ある。これを下地として、パフォーマンスが生まれてくる。

3.パフォーマンスとコンピュータ

このパフォーマンスは単調なコンピュータへの働きかけではな い。人間のパフォーマンスは、演奏するたびに毎回違う動きをす ることになる。特に楽器の演奏とは違い、楽譜があって演奏する 形式が決まっているわけではないので、演奏をするたびごとに全 く違った働きかけを行うことができるのである。
パフォーマンスによって作成された音楽情報は、コンピュータ へと送られる。このとき、コンピュータが決まった形の音楽を流 すだけであると、双方向の関係は生まれているとはいえない。コ ンピュータは、人間から与えられた情報をコンピュータが演奏す る内容に反映する方法を持っていなくてはならないのである。そ の方法として、コンピュータに作曲のための「アルゴリズム」を 持たせておく方法がある。
この方法において、コンピュータは人間からの情報を、そのア ルゴリズムに対する一つのパラメータとして、受け取るのである。 その他のパラメータとしては、乱数の導入による「偶然性」も採 用される。コンピュータはこうして得られたパラメータをもとに アルゴリズムを用いて作曲し、演奏を行うのである。この方法に よって、人間からコンピュータへの渡された働きかけの結果をリ アルタイムに反映させることが可能になるのである。

4.コンピュータから人間への働きかけ

コンピュータが人間からの入力を受ける方法については、先に 述べた通りである。それでは、コンピュータから人間への働きか けはどのようになされるのであろうか。
コンピュータが「あらかじめ演奏される音楽が作曲されている」 情報を演奏することにおいては、あくまで、その情報が人間に伝 わってくるだけに過ぎない。しかし、「演奏される音楽情報その ものは記述せず、音楽を生成していくアルゴリズムを記述するこ とができる作曲」のスタイルを取り入れている環境では、パフォ ーマーは自分の動きのレスポンスを感じることができるのである。
すると、コンピュータに作曲されたパフォーマンスを反映した 曲によって、パフォーマーが影響を受けることができるのである。 これはすなわち、コンピュータと人間との双方向の関係が生み出 されているといえる。

5.パフォーマンスのための入力装置

人間のパフォーマンスをコンピュータとして伝える具体的な機 器としては、その一つにヤマハのMIBURIがある。これは、「手首 ・ひじ・肩の曲げ」センサを用いている。こうしたセンサを用い た音源としては、他に「筋電位センサ」がある。これは、筋肉の 緊張状態を取り込んで、MIDI出力するという方式である。
このようなセンサを用いることで、人間の動きを音源とするこ とが可能となる。ここで挙げているセンサは、いずれも人間の動 きを音に変える働きをしている。楽器の演奏とは違い、自由な音 を作り出すことができるのである。

6.マルチメディアアート

コンピュータに人間からの働きかけとして、マルチメディアを 導入する方法もある。これも一つのパフォーマンスとなる。具体 例としては、コンピュータグラフィクスと音楽を組み合わせる方 法がある。人間がお絵描きソフトの画面に絵を書いていくと、そ の描画情報をコンピュータはMIDIデータとして捕らえ、その情報 をもとに作曲を行い、音楽を作っていくのである。
パフォーマーが自由に絵を描いていくのに合わせて音楽がリア ルタイムに作曲されるため、コンピュータが演奏するのは毎回全 く違った音楽になっていくのである。そして、その描いた絵をも とにした音楽を、コンサート会場でパフォーマーが聴いて、その 音楽に影響を受けながら、また絵を描いていくことを行うことが 可能となる。それはつまり、人間とコンピュータの双方向の関係 を生み出しているのである。

7.まとめ

コンピュータミュージックにおけるパフォーマンスは、人間が 自由に音を作り出し、自由に表現するための手段である。そして、 人間が作り出した音を受けて、コンピュータは作曲し、演奏を行 い、人間に対して影響を与えるという、インタラクティブな環境 の中で行われるものである。これらは、従来の演奏では行われて いない形式である。
そして、パフォーマンスを行うことは、画一的な演奏という枠 をコンピュータミュージックから取り払うことにつながっている。 すなわちコンピュータミュージックが、ライブを行うことのでき る要素を与えているものである。こうした点において、パフォー マンスを行う意義があるといえる。

8.おわりに

パフォーマンスは、コンピュータミュージックにおいて、人間 が自由な表現を可能にするという点が、非常に大きな意義を持っ ていると考えている。そして、そこにコンピュータからの働きか けを受けることで、人間自身がこれまでに無いインスピレーショ ンを受けるという形態は、これまでの音楽には無かった、全く新 しいものである。つまりこうしたコンピュータミュージックのラ イブは、大変刺激的なものになり得ると考える。こうしたことか ら、パフォーマンスはこれからさらに新しい境地を開いていく可 能性を十分に感じさせると思えるのである。


音楽活動におけるコンピュータの可能性

概要 音楽という一つの表現方法をコンピュータ上で表現する方法は様々である。 本論では特に現代音楽についてコンピュータが音楽活動にどのように貢献 できるかを論じていく。

1.「音楽」の捉え方 音を「ド・レ・ミ」のように枠組みにはめ込んで構成しようとするのが従 来の音楽である。アドリブなどによって不確定性を与えることはあっても、 楽譜の上の音符は一意な音を指しているし、音楽理論(あるいは人間の認 知機構)に基づいて「聞いていて不自然さを感じない」音楽を作り上げる ことを目的としている。
それに対して、不確定性を積極的に指向するのが現代音楽であると言える。 音を空気の振動、波のレベルから捉えるのが前衛的な現代音楽の基本姿勢 である。生活音や騒音など、全ての音声を構成要素として取り込もうとす る点において、より原始的と言えるかもしれない。
音楽性というものをどう捉えるかという問題はあるが、音の持つ可能性を 模索するという観点からすれば、現代音楽とは表現手法として実に興味深 いものだと言える。

2.コンピュータミュージックと現代音楽 音楽活動にいかに貢献するか、つまりいかに創造力を加速させてくれるか を考えると、コンピュータという道具は、現代音楽において可能性を持っ ているのではないだろうか。
音の情報を音色、音程、長さなどのイベントとして管理するMIDI規格の登 場によって、コンピュータ上でコンパクトな音楽データを保持できるよう になった。 ただ、このようなデータ表現では当然、同じ曲データは何度再生しても同 じテンポ、音色、音程で演奏されることになる。これを利点とするか欠点 とするかは一概には言えないが、基本的に創造的ではないと言える。
むしろ、コンピュータがツールとしてその潜在能力を発揮するのは、曲デ ータや波形のランダム生成においてであろう。そしてそれは現代音楽の指 向する不確定性と一致しているのではないだろうか。
音楽とグラフィックス、センサを使用したボディパフォーマンスなどによ るマルチメディア作品。コンピュータはそのような表現を可能にするため のツールとしてこそ、真価を発揮することができると私は考える。


音像メディア論・レポート

1「はじめに」 今回のレポートは、音声通信の仕組みと問題点について述べます。

2「マルチメディア情報通信とは」 郵政省電気通信技術審議会マルチメディア情報通信技術委員会の 定義によれば、「マルチメディア情報通信とは、音声、画像、文字、 データなどの表現メディアをディジタル化によって統合された情報として 一体的に扱い、対話的機能(インタラクティブな機能)や知的機能(イン テリジェントな機能)を利用して、必要な情報を、必要なときに、必要な 表現形式で、ネットワークを介して受発信することを可能とするコミュニ ケーション手段である。」としています。もっと簡単に言うと、「ディジタル 化された、音声、画像、文字、データなどをコンピュータ・ネットワークを 介して、やりとりすること。必要に応じてリアル・タイムに通信できる。」 ということです。
このポイントは、
(1)ディジタル化された情報を扱う。
(2)コンピュータ・ネットワークで転送する。
(3)リアル・タイムな場合もある。
と言えます。

3「音声のディジタル化」 音声のディジタル化は、音声のアナログ信号の電圧を一定周期で測 定し数値化(サンプリング)することによって表現されています。A-D (アナログ-ディジタル)コンバータでサンプリングし、再生は逆にD-A コンバータでディジタル・データを電圧に変換することで表現されます。 ディジタル化された音声の品質やデータのサイズを決める要素は、サ ンプリング・レート(サンプリングする周期)とサンプリング・サイズ(測定 した電圧を何ビットで表すか?)です。どちらも大きくすれば、品質は良く なりますが、その分データ・サイズが大きくなってしまいます。
一般的なサンプリング・レートとサンプリング・サイズについては、電話 の標準である8000(サンプル/秒)のとき、おもなサイズは64Kbps(8ビッ ト)、音楽CDの標準である44100(サンプル/秒)のとき、1.4Mbps(16ビッ ト)、DAT(Digital AudioTapes)の標準である48000(サンプル/秒)のとき、 1.5Mbps(16ビット)となっています。これから分かるように、電話程度の 音質でも、
 ・8(ビット)×8000(サンプル/秒) = 64Kbps
のデータ量になります。さらに高品質なCD並みの音質でステレオの データならば、
・16(ビット)×44.100(サンプル/秒) ×2(チャンネル) =約1.4Mbps
のデータ量になります。
別の味方をすれば、電話レベル、CDレベルの音声をリアル・タイムに転 送するためには、64Kbps、あるいは1.4Mbps以上の帯域を必要とするとも いえます。音声をファイルに保存したり転送するためには、サンプリングし たデータを符号化する必要があります。最も単純なのはPCM(Pulse Code Modulation)と呼ばれる方式で、サンプル・データをそのまま順番にならべ るというものです。SUNなどのAUファイル、ウィンドウズ系のWAVEファイル などは、PCM形式で保存されています。しかし、この方法だとデータのサ イズが大きくなりすぎるので圧縮が必要となってきます。ディジタル化され た音声の圧縮については、電話関連で昔から研究されています。標準的 な方針としては、ADPCM(Adaptive Delta Pulse Code Modulation)があ ります。しかし、電話系の圧縮技術は1/2程度にしか圧縮できないので、 最近流行のインターネット電話では、独自の圧縮技術によってモデム接続 の低速回線でも会話ができるように各社が競っています。

4「マルチメディア情報通信における課題」 これまでのネットワークは、コンピュータ間のデータ通信を主な目的として いました。しかし、マルチメディア時代においては、コンピュータ間の通信 に加えて、人間と人間がネットワークを介してコミュニケーションする事を考 えなければなりません。このためには、ネットワークの構築において人間に 関連する要素が大きく影響するようになります。ここでは、この問題につい て説明します。
コンピュータ間の通信の場合、単位時間に処理できる量とレスポンス・タイ ムに重点が置かれています。送ったデータが遅れたり、エラーが発生する ことによる影響は、信頼性を確保するプロトコルの処理によって回復でき れば、それほど問題にはなりません。しかし、マルチメディア通信の場合、 特に音声の通信では、パケットの遅れや損失は、人間に対して大きな影響 を与えます。
まず、遅れについてですが、ネットワーク上のいたるところで遅れが発生す る要因があります。装置の処理速度を上げることで改善可能なものもありま すが、最終的に電気、電波、光を使って転送されるパケットは、光の速度を 超えられないので、伝送路の長さに依存した部分は必ず存在します。これら の遅れが人間にどのような影響を与えるかというと、対話型のアプリケーシ ョンでの人間同士の会話をスムーズに行えるかという部分になります。下に、 人間同士の会話における音声の遅れとその状態について記します。
a) 遅延時間50(mSec)のとき、全く問題なく会話できる。
b) 遅延時間100(mSec)のとき、遅れが認識できるが会話に問題ない。
c) 遅延時間250(mSec)のとき、会話はわずらわしいが、理解できる。
d) 遅延時間500(mSec)以上のとき、会話できない。
これからも分かるように、遅れが600mSecで会話が成り立たなくなります。 遅れが250mSecについては、テレビの衛星中継などの特派員とニュースキ ャスターとの会話で見ることができます。静止衛星は、赤道上空36000kmの ところにあります。光の速度は、約30km/秒ですので往復するとだいたい 250mSecの遅れによる違和感はあるが会話は理解できるという感覚は、 そのような場合です。ネットワークを介して音声を通信する場合には、遅れの 少ない回線を選択したいという要求が発生します。
もう一つ、パケットの損失についても考えなければなりません。コンピュータ 間のデータ通信では、パケットの損失が発生した場合には、TCPなどのトランス ポート層のプロトコルで、エラー回復の手順によって問題を修復することができ ます。しかし、音声のリアル・タイム通信では、エラー回復は逆効果になり得 ます。プロトコルによるエラー回復には時間がかかり、回復されたパケットはリ アル・タイム・データとしては過去のものとなるからです。リアル・タイム通信 では、パケットが損失する可能性を最小限に抑える回線を選択することが必要 です。パケットの損失が発生すると音声がとぎれます。あまりにも頻繁だと会話 が成り立たなかったり、内容が把握できないなどの問題になります。 これらの音声の問題に対するネットワークへの主な要件をまとめると、
a)遅れの少ない回線を選択できる。
b) パケットの損失を最小限にとどめる。
これらの要件は、利用するネットワーク回線のQoS(Quality of Service)に関連 しています。マルチメディア通信の時代のネットワークは、このQoSのサポート が必須と言われています。現在のインターネットでは、ほとんどQoSがサポートさ れていない状態で利用されており、現在のインターネットにおける大きな検討課 題です。


マルチメディアとセンサ

概要 コンピュータシステムが人間の演奏者との接点として用いる各種 のセンサシステムについて、まずマルチメディア・システムを考え 次に各種センサ及びヒューマンインタフェースについてどのような 物があるかを調べてみた。

1.はじめに マルチメディアにおけるデータは、すべてデジタルで扱われることからも マルチメディア応用では、いかにセンサ技術が重要であるかが推測できる。 近年のコンピュータ・パワーの飛躍的な向上には目を見張るものがあり、 それに伴い、人間よりの処理、つまりユーザインターフェースを充実させる 処理時間の余裕が出てきた。こうした流れは、センサを装着することによっ て、直接入力する方法を産み出した。
マルチメディア・システムの構成には、情報を入力するセンサ、データ通 信用高速センサ、さらに、コミュニケーションを容易に実現できるように人 間の情報を抽出するセンサなどの各種センサが多く利用されている。
以下、マルチメディアとセンサの関係について述べ、実際にマルチメディ ア応用で使用されているセンサについて述べる。

2.マルチメディア・システムとは 画像、音声、図面などコミュニケーションに必要な情報を複数種類コンピ ュータに取り込んで、自由に扱える環境をマルチメディア・システムと呼ぶ。 基本的には、一般的な画像処理システムと同様であるが、高速処理機能を生 かして、画像・音響生成や表示がリアルタイムにできることから、ユーザの 意志や、身体的な動きなどをインタラクティブに対応できることが大きな特 徴となっている。
マルチメディア・システムは、多種多様な情報メディアをデジタルデータ という共通な情報にしておくことによって、各メディアの入力、検索、伝送、 処理、表示、記録などの処理を共通に扱えることを目的とした統合概念であ るといえる。
ユーザからの意志に対応する情報も広い意味では、人間情報メディアであ る。人間が直接意志を入力できる入力手段、例えば、運動系によるキーボー ド、マウスや顔の表情をセンサ等によってコンピュータに直接入力する手段 などがある。生体の情報や思考までも含めることができる。究極は、人間が 考えたことが入力できる夢のインタフェースであるが、現在の技術ではそこ までには達していない。

3.各種センサ コンピュータシステムが人間の演奏者との接点として用いる各種のセンサ については様々な種類が存在する。あげてみると、
・ 画像入力用センサ
・ 位置センサ
・ 距離センサ
などがあるが、ここでは位置センサを例として取り上げてみる。位置センサ とは、人間の動きを位置検出する重要なセンサである。以下にあげる3つの デバイスは位置センサの代表的なものである。
(1) マウス(光学式、メカニカル式)
光学マウスはLEDを光源として、格子パターンのプレートを照明し、集 光レンズで集光してフォトダイオードで検出する。マウス本体を移動するこ とによって、プレート上の格子をクロスするごとに変化する光量の変化の回 数を計算して、相対移動位置を求める方式である。また、メカニカル方式は 光の代わりにボールの回転量を電気的に検出している。
(2)タッチパネル
タッチパネルは透明導電性フィルムの両端に電極があり、XY検出用に接 触せずに対抗させて、2枚重ねてある。回路には定電流源があり、指でタッ チして2枚のフィルムが接触すると、接触位置に応じて電流が分割されて流 れるため、それぞれの抵抗に生じる電圧を比較することによって、タッチし た位置を算出することができる。透明フィルムであるため、CRTや液晶デ ィスプレイ上に設置して、表示と入力位置を重ねられるメリットがある。
(3)ディジタイザ(タブレット)
高精度、高分解能が可能な電磁誘導方式が主流となってきている。X軸、 Y軸に各センスラインを埋め込んだパネル上に、コイルを内蔵したペンやカ ーソルを移動させ、電磁誘導によって生じた誘導超電力を検出・増幅する。 演算部で位相検出や絶対値比較などの処理を行い、座標値を求めている。大 型化が可能で、位置精度や分解能が高く、図面の読み取りに多く利用されて いる。

4. ヒューマンインタフェース 次に、ヒューマンインタフェースについて取り上げる。ここでは、人体に 直接装着して、情報を得る代表的なセンサをあげる。
(1)データグローブ、データスーツ
光がもれやすい光ファイバを用いて、指に沿って装着し、指の間曲がり具 合を光りもれ(光透過率)として計測することによって、指や腕などの動き を入力する方式。体型等の個人差があり、キャリブレーションが不可欠とな る。データスーツは同様の光ファイバを手や足など曲がりに対応する部分に 装着し、動きが入力できるものである。
(2)顔表面の物理的な動きセンサ
PAS(パフォーマンス・アニメーション・システム)は、人間の顔に多 数のセンサを装着し、アニメーションの動きデータを直接リアルタイム入力 できるシステムである。動き入力できるシステムヘルメットにポテンション メータを固定し、そのポテンションメータから伸びた針金の先端を顔に装着 することによって、顔の表情の動きを入力するものである。装着の手間や違 和感が問題となり、センサの非接触、小型化が望まれる。
(3)ひずみゲージを利用した口の動きセンサ
ひずみゲージを薄いステンレス版の表と裏に装着し、ステンレス版が曲が ると表面のひずみが変化することから、電気信号として計測される。このス テンレス版の両端を装着し、その両端の距離が変化すれば変化量がAD変換 され、口の動きが入力される。
(4)パワーグローブ
グローブに装着した導電性シートを用いて指の曲げの測定を行っている。
(5)サイバーグローブ、スペースグローブ
光ファイバの代わりに、力感応の導電性インキを使用したサイバーグロー ブ、同様の方式で接触感をフィードバックできるように小型の風船上のアク チュエータを持っているスペースグローブがある。

5.おわりに マルチメディア用センサは、高感度化、高分解能化、高速化などのより高 機能な開発が必要である事はもちろんのこと、人間相手の新しいインターフ ェースの開発が望まれる。これはたんに、人の動きを認識して位置情報を得 る方式に留まらず、人間自身から出る情報あるいは生体内部の情報を直接、 間接的に検出できるセンサである。
通産省の指導で(法人)人間生活工学研究センタが進めている「人間感覚 計測応用技術の研究開発」がある。人間の感覚の計測技術を研究し、人間の 内面的な情報の計測方式が研究されている。たとえば、生理データとしては 筋電(EMG)、心電(ECG)、脳波(EEG)、眼振(EOG)、深部 体温、表面体温、瞳孔径、生体酸素濃度などを用いて、居眠り、疲労、スト レス、覚醒度などとの関係を明確にする基礎研究がなされている。これらは 人間を研究することによって、人間に優しい製品設計の指針を得たり、原子 力発電等における監視作業でのミス防止に役立てる応用がある。人間の感情 表情などの内面的情報をインタラクティブに入力できる応用に期待されてい る。
脳波計測から言語の予測への試みもある。脳波の電気信号とニューラルネ ットを組み合わせて、言葉を発せず、思うことで「あいうえお」を認識する 研究が進められている。
将来は、人間の生理的・心理的な研究とセンサ技術が進展すれば、考える だけで意思をコンピュータに伝えられる夢のインターフェースが実現できる ものと期待される。


コンピュータグラフィックのすべて

概要 現在コンピュータグラフィックスは映画やテレビ、ゲームの世界で幅広く 使われている。そもそもCGとは何なのか、エンジニアが難しそうな技術を 駆使しているイメージを想像しがちである。
そこでCGのしくみについて「具体的に何をしているのか」よりも「CG にはどのような考え方が使われているのか」を解説した。

1. はじめに 今回集中講義でコンピュータミュージックのことを勉強したわけだが、私 はその中でも特に音楽とともに使われていたCGの方に興味を持った。情報 学部にはいったこともあり、自分で実際作ってみたく思っていた。CGの 映像はよくみかけるが、どのような仕組みかと聞かれたら分からない。そこ で今回、本当に初歩的内容だとおもうがCGとは何か、そしてそのCGはこ れからどのような方向にむっかていくのかレポートしてみたい。

2. CGとは CGとは最近CMやゲームでみかけるコンピュータによって作られた映像 のことを指すのは言うまでもない。ここで学術的にCGというものを定義し てみたい。
CGとはコンピュータによって映像をつくる技術のこと、またその技術に より作られた映像のことをいう。CG映像には、既にある画像に対してコン ピュータにより加工を加えて作られるものと、コンピュータにより画像その ものをつくるものとあり、最近では後者を特にコンピュータにより生成した 画像ということでCGIとよんでいる。
またCG映像とは2Dや3Dとに分けることができる。これは最終表示形式 を表しているのではなく、CG映像の作成過程で、2Dの平面映像を処理す るのか、3Dの立体空間を考えて映像作成をするのかを意味している。
そもそもCGとはCMやゲームといった分野のために開発されてきたもので はない。例えば飛行機の設計において、翼の形を変えると空気の流れはどのよ うな影響をうけるかといった流体力学の分野などで使われ、研究されてきた。 つまり得られる計算結果は膨大であるためそれを分かりやすい絵の形で表現 できないだろうか、というのがCGの開発目的であった。又、飛行機の操縦 シミュレーションといった画像でなければならないといった分野でも開発さ れてきたのである。CGといえば、映画やゲームの映像ばかりが目に浮かぶ が、私たちが今日いだいているCGのイメージとは少し違う。
初期のころ3CG、三次元の物体をあらわす方法として、物の形を多くの線 の集まりで表す「ワイヤーフレーム・モデル」が多く使われた。しかし線だ けでは表現に限界があったため、それに加え面を表現する「サーフェイス・ モデル」、「ソリッド・モデル」が開発された。「サーフェイス・モデル」 とは三次元の物体をその表面だけで表現する方法、「ソリッド・モデル」と は、三次元の物体を中身のつまった固形物体として扱う方法である。
つまりCGとはコンピュータの性能があがり、一度に多くのデータが扱える ようになり、そしてそれにアートの要素が加わることによって変化してきた。 そして今日一般的にいわれるCGというものができあがった。

3. CGの仕組みについて CGとはコンピュータによって作成されるものですが、まず行わなければ ならないこととしてコンピュータにもわかる形で表すことである。そこで考 え出されたのが絵を細かく仕切ることである。
CGの仕組みとは人文字と同じ原理である。作りたい絵を細かな桝目の集ま りと考え、それぞれの桝目(つまり人文字に置き換えるならば、人文字のと きに持っている板)を何色にすればよいか順番に計算していき、最後の桝目 の色を計算しおわったところで一枚の絵ができあがる。そしてこの小さい桝 目のことをピクセルといい、ピクセルの色を計算して絵を作ることをレンダ リングという。
レンダリングの方法として多く普及しているものとして「レイ・トレーシン グ」と「スキャンライン」をあげることができる。
「レイ・トレーシング」とは簡単にいうとカメラで物体を網目から見ている のと同じことで、カメラから物体に線分を延ばしていきぶつかったところの 物体の色を調べる、すべての網において同じ方法で調べ一枚の絵を作る方法 である。まとめて言うならば、スクリーンの画素を処理の単位とする方法で ある。他ではできないほどリアルに表現できるという長所をもちながら、絵 が完成するのに膨大な時間がかかるという短所をかねそなえている。
「スキャンライン」とはちょうど果物が入ったゼリーを薄切りにし横から見 たのを思い浮かべればいい。絵をスライスし横から見るため、スライスされ た何枚目に、どのような形にスライスされて閉じ込められているのか計算に より求めることができる。(二つの物体が重なっている場合は、後ろの物体 は前の物体に重なって見えない。)そしてそれを横から投影し、2枚目3枚 目と順々に行えば一枚の絵ができあがる。まとめて言うならば、スクリーン 上の走査線を処理の単位とする方法といってよい。スキャンラインは、レイ・ トレーシングに比べ時間が短縮されるのが長所だが、レイ・トレーシングの ようにリアルに表現できない。

4. CGデータの作り方 CGを作る最初の手順としてモニタリングという言葉がある。
100年前、「自然は円筒形と球形と円錐形によって扱い、すべてを遠近法の なかにいれなさい。」というセザンヌの言葉があるが、これは今のCGのデ ータ作りにあてはまる。
デザインをするときまず、コンピュータにおかれている物を教える必要があ る。その場合単純な形の物を使う。それを組み合わせてできる形がいくら複 雑であっても、使われている部品の一つ一つを単純な形にしておけば、コン ピュータは「ひとつの複雑なもの」としてではなく「単純な部品がたくさん 集められたもの」として理解できからだ。
このコンピュータに理解できる単純な形の部品をプリミティブといい、プリ ミティブを組み合わせて形を作っていくことをモデリングという。
次の作業としてマッピングという言葉がある。
基本的にひとつのプリミティブには一つの色しかつけられないため、箱に複 雑な模様がかかれているという表現はできない。しかし、別に作っておいた 模様を無地の箱に貼り付ければ、うまく表現できるはずである。これがマッ ピングという作業である。
マッピングがあるおかげで複雑な絵を表面にもった物体をつくること、そ して簡単に表面の絵を変更することがでいるようになった。 パソコン用語でマッピングを説明するならば、モデリングされた物体の表 面に柄や模様、凹凸感、風景を貼り付けることである。特に貼り付ける種類 によって、柄や模様の画像を貼り付けることをテイスチャーマッピング、凹 凸感をつけることをパンプマッピング、周囲の風景をマッピングすること を、環境マッピングという。
ここまでがCGをつくるための基本的な方法であり、これにプログラムをく わえると俗に言う映画やゲームで使われているCGアニメーションになる。

5. これからのCG ここまでCGの初心者である私がCGに関して述べてきたわけだが、今後 CGの世界がどのように変化していくか考察してみたい。
まずパソコンの性能がアップしてCGの技術も変えることはいうまでもない。 周知のとおりパソコンの性能は日に日に進歩している。これはCGの世界に かぎらず音楽などの世界でも同じようなことがいえると思うのだが、処理が より速く、作品の容量がより小さく、作品の質がより美しくなる。それにと もない今までできなかったことができるようになり、CGの作品としての質 もあがる。
それに加え、CGというものがよりいっそう大衆化されると考えられる。上 で述べたようにパソコン性能はアップし又、低価格にもなっている。新しい 簡単にできるCGソフトの開発も進んでいる。そのためかつてCGとは、C Gクリエーターの仕事であったものが一般の人にも手軽にできるようになっ てきている。このためCGを作る側にとってもCGの利用範囲が広がるであ ろうし、放送や映画業界といったCGを使う側としても低コスト化による大 量生産と新技術導入により今まで以上に利用範囲が広がる。もちろんCGを 見る側もCGを目にすることはおおくなるであろう。上記からも分かるよう にCGが大衆化するであろう。
又、プロ・アマとはずCGが手軽に作成できるため、建築プレゼンテーショ ンやビジネスプレゼンテーション、そ して観光、教育、トレーニーングなどのプレゼンテーションなどにも普及する と言えよう。かつてCGは高嶺の花であり、CGとは縁がなかった世界にも 広がるであろう。放送や映画といったかつてCGを使ってきた業界に変化を もたらすばかりでなく、人間が日常に目にするものにも変化がおとずれよう としているともいえる。
最後に、インターネット上でのCGに関してであるが、かねてよりCGをの せる試みは行われてきている。しかし、データに互換性がないため、CGのモ デルを作ったソフトが同じユーザー同士でないとモデルの共通利用ができな かった。これに対し、インターネット上でCGモデルをみんなで共有しよう という目的で、VRMLという標準フォーマットも提唱されている。しかし、 CGモデルはデータが大きいため、通信回路に制約のあるインターネットで は、なかなかスムーズな動きができにくい。VRMLは大きな可能性を秘め ているとは言えよう。しかし、インターネット上でのCGは通信回路等の問 題で大衆的な普及にはまだ時間がかかるといえよう。

6. 終わりに これまでCGに関して、CGには興味はもっているが作ったことはないと いう初心者なりにCGに関して調べてきた。
Windows95がでた当初から、パソコンの普及により生活様式がかわるとさん ざん取りざたされてきた。その中でもインターネットが特にとりあげられ、 インターネットで世の中がかわるといわれている。しかし、今回CG関連本 を読んでいくにつれて、CGも世の中を変えるかもしれないと感じた。特に CGを使う放送や映像の業界、人間が見る映像に大きな変化が訪れるのでは ないかと考える。インターネットにともなう人間の生活を考えるのも必要で あるが、CGのもたらす変化も考察する必要もあるのではないかと感じた。


音楽を理解するコンピュータ

音像メディア論講義から わたしが音像メディア論を受講するに当たって最も知りたいと思ったこ と,それはコンピュータの作り出す音とその1仕組みついてだ。しかし実 際に講義の中で最も興味をもったことは,すでにある音楽からビート理 解してキャラクターにダンスを踊らせるシステムや,人間の演奏に合わ せて自動的に伴奏を作り出すシステムのことだ。つまり,最初の興味は デジタルから作り出すアナログの音だったのだが,講義を受けて,アナ ログの音をデジタル的に理解するという正反対の方向の技術に興味がわ いたのだ。

アナログからデジタルへ わたしが思うに,音楽とはそもそもアナログ的なものだ。音楽は人間が 耳というアナログ的なインターフェースで理解するためのものなので, これは間違いないだろう。アナログをデジタルに変換するというのは, 一瞬だけで無限の表現を持つものを無理矢理型にはめることに違いない 。つまり表現としてのレベルはデジタルがアナログを上回ることはない だろう。しかしながら,現在音楽はデジタル化してから配布するのが主 流だ。コンパクトディスク,ミニディスクなどの普及がそれを表してい る。もちろんデジタル化するということによって情報量が少なくなる, ということは悪いことではなく,コンパクト化や処理の用意さ等の利点 がある。だからこそ主流になっているのだ。音のデジタル化というのは もはや当然のこととなっている。

音楽としての理解 デジタル化した音を音程や長さなどの要素からコンピュータが理解する ことは容易だ。しかし,音の集合を音楽として理解するのは,とても難 しい。音のつながり,音の流れというさらに感覚的な,アナログ的な要 素が加わるからだ。人間はアナログ的な考え方が出来るため,音楽が鳴 り始めた瞬間に"音にのる"ことができる。しかしデジタルでしか処理で きないコンピュータが"音にのる"というのを理解するには,やはりパタ ーンマッチングしかないだろう。音の流れに法則性を見いだすのだ。つ まり,即座に理解する事は出来ない。シンディーも音楽を流してしばら くの間は,まずパターンを認識する事から始めなければならない。伴奏 が人間の弾くピアノのアナログ的なタイミングに合わせることが出来る のも,結局は処理の高速化により,人間が気づかないぐらいのスピード で解析して結果(伴奏)を導き出すからだ。
だが,人間が気持ち良いと思う音楽には必ずパターンがあるはずだ。も ちろん,誰しもが気持ち良いと思うパターンではないかもしれないが, ヒット曲を作り出す人間の頭の中にはそういったパターンが存在してい るに違いない。だからこそ,特定のプロデューサの曲が非常に良く売れ るという傾向が現れたり,和音やコードというようなシステムが出来る のだ。ロック風,ダンス風,ジャズ風,クラッシック風といったジャン ルが出来るのも,それにある特定のパターンがあるからこそだろう。
音楽を理解するためには,やはり大量のデータからパターンの解析をす る事がいちばんだろう。それこそ過去に膨大な音楽が存在するのだ。そ れをデータとして,あとはリアルタイムにマッチングできる強力なハー ドウェアさえ出来れば,いくらでも理解することができるだろう。

コンピュータが音楽を理解したら 音楽としての理解がリアルタイムに出来るようになれば,様々な応用が 考えられる。わたしが一番楽しみにしているのはカラオケ(に限らずだが) の採点システムのようなものだ。今のカラオケの採点システムは,元か ら有るデータに対して正しい音程であるか,とか声の大きさなどで判断 しているのだろう。だから,アドリブなんかをするのは高得点に結びつ かない。しかし,音楽としてかっこいいアドリブのパターンなどが判断 できるようになれば,それこそ原曲をとどめていないような自分なりの 歌い方に,評価を与えてくれたいするのではないだろうか。恐らくカラ オケの点数も単純に100点満点の評価でなく,何人もの審査員キャラがい て,それぞれが違った評価をしてくれるだろう。ある審査員キャラに高 得点を出させるために,アドリブを考えたり,キッチリとした音程で歌 うようにしたり,高得点の中にも色々な個性が出てきて非常に面白そう だ。

最後に デジタルはアナログより表現力に劣ると言ったが,わたしはそれ以上に デジタル化した音楽に可能性を感じる。様々な楽しみ方が出来るはずだ。 それは,人間には決してデジタル的な考え方が出来ないからかも知れな い,と思う。


音像メディア論・レポート課題

概要 今回の4日間の授業で、コンピュータミュージックについて学習し たわけでもその真髄を理解できたわけでもなく、ただいろいろな種 類の作品を見て感想を持っただけである。このレポートにおいては、 そのわずかに触れただけのコンピュータミュージックについて、素 人の思うコンピュータミュージックの観点から考えてみる。

1:初めに この講義を受ける前のコンピュータミュージックに対する私の感想・ 偏見は、実際の音楽に対して、表現力に乏しい機械音であり、血の 通った音楽というものを感じさせないような冷たい感じの音の集まり であるといったような事であった。実際になじみがなかったし、興味も 全然持っていなかった。そんな私のあくまで消極的な否定的な考えである。

本文:「 講義後のコンピュータミュージックに対する意見」 上記の通り、私のコンピュータミュージックに対する初めの感想 はよくないものであった。授業ではたくさんの分野の作品を聞き、 自分の好きな楽器を扱ったコンピュータミュージックも実際にはあ った。しかし、作品を聞いた(見た)後の今の感想でも、初めの感 想からあまり変わっていないような気がする。しかもさらによくな い感想を持ってしまった。冷たいという印象だけでなく、もう触れ たくないというのが本音である。まず第一に機械音の世界を抜け出 せなかったような気がする。
これは、先生が授業で紹介されていた作品が、大衆向けのミュージ ックではなくて芸術者向け・専門家向けのミュージックだったから だとは思う。しかし、コンピュータミュージックはなんぞやという 素人の生徒に対してあの作品は強烈すぎて嫌悪感を高めるだけであ った。芸術性の高い絵画というものは、素人の私たちにとってはま ったく理解できないものであり、下手であるという印象さえ与える だろう。それと同様に、今回のコンピュータミュージックの作品も 本人たちが満足する、その道に精通した人でないと理解できないと 思われる作品であった。
私が聞いた感じで思うに、あの作品の音は、不協和音の集まりで あるような気がしてならなかった。私が学習した未熟な音楽知識か ら考えると、不協和音というのは耳障りな音であり、和音として響 きあわない、人間にストレスや不快感を与える和音である。たいて いの音楽・楽曲などでは不協和音は使用されないのが普通であろう。 コードにおいては、属七の和音はわざと暗い音を出すために不協和 音とされる音を使っているということであったはずである。今回の 作品においては、さまざまな音が組み合わさり不協和音をあちこち で響きだしていたという感じしかなかった。それが、意図的に不協 和音を作るようにしていたのか、それともそれを良い響き、良い作 品とおもって作成しているのか、つかめなかった。もし、あの作品 を不協和音だと感じないで美しい響きだと感じて作成しているなら ば、私の中ではそれは、音楽と呼べない。美しい響きやメロディーを 前提としている本来の音楽においては、あのコンピュータミュージッ クの作品たちは、音楽とは同じ分野に所属してはならないと思う。
今までの音楽・楽曲を聞いてきた限りでは、明るい・ノリがいい・ 暗い・悲しい・幻想的・物語的な流れを感じるなどなど、いろいろな 感想を持ってはいたが、不快である・鳥肌が立つ様なおぞましさを感 じるなどのような作品はなかった。コンピュータミュージックは今ま でのものとはまったく違った印象を与え、それは音楽としての役割を 果たしていないのである。あの作品を聞いて、気持ちよく起床するこ とができるだろうか。リラックスしたり、穏やかに深い眠りにつくこ とができるだろうか。気分を盛り上げて意気揚々とさせてくれるのだ ろうか。落ち込んだときに慰めてくれるのだろうか。コンピュータミ ュージックは今までの音楽が果たしてきたような、そんな役割を求め ていないのかもしれない。しかし、音楽だというからにはその役割を 求めて聞いてしまうのが素人の普通である。コンピュータミュージッ クの先生たちは、その作品に誇りを持っていて、自分たちの耳は最高 のものであるという自信を持って作成にあたっているのであろうが、 私から見たら、その耳は不協和音を感じ取っていないだけの様に思え てしまう。絶対音感は必要がないと述べていたが、どの音か分からない、 楽譜ではなくて番号を見て音楽を作っていくような作業では、単なる 不快な音の集合を作り出してしまうであろう。新しい曲を作る作業に おいて、楽譜に書きながら頭の中に音楽を奏でるからこそ美しい音楽が 作成できるのであると私は信じている。

「 興味を持てた内容」
・自動演奏におけるアルゴリズム
どのようなプログラムをもってすればあのような自動演奏ができるので あろうか。再生演奏中にテンポ・データや各パートの音量バランスや 音色番号などを変更できるという最近のシーケンスソフトの機能は、 どのように考えられて作成されたのかとても気になった。たくさんの 機能を持たせれば持たせるほど、プログラムにはたくさんの条件分岐が 必要になるはずである。そして、その条件分岐を行うための条件をどの ように設定したら自動演奏になるのか。自分が演奏するときのことを 考えて、それを機械にやらせるとしたらどのようなアルゴリズムを私は 考えるのか。メロディーの音の流れを解析し、まずコードで和音をつけ ていく。その和音と和音の間に合う音を何種類か検索しその音をつなぎ として出せば、ちょっとした和音からのアレンジになりそうである。単 純に和音を一度に演奏するのではなく、その曲のテンポにあわせて一音 一音をバラバラに出すようにするとそれだけでも立派な伴奏アレンジに なる。1拍子に3連符で演奏すればさらに印象も変えることができる。 和音のどれか一音をランダムに取り出して連打しても伴奏にできる。メロ ディーの3度下や5度上などを追ったり、適当な部分だけでもそれを行え ば和音の伴奏と合わせるとかなりよくなるであろう。演奏者のリズムに 合わせて伴奏をつけていく伴奏システムではあらかじめ演奏者が演奏する メロディーを読み込んでおき、メロディーのどの部分と伴奏のどの部分が 対応するかを細かく覚えさせて、その時間のずれを一つずつ解釈していけば できそうである。人間の演奏する速さは機械にとってはとても遅い入力と なるから、入力されてから判断して伴奏をしても、その速度は人間にはなか なか判別できないものであり、聞いている人間にとってはさも同時に演奏 しているかのように耳に入るであろう。しかし、この方法だと演奏者が 間違えて演奏したときに正しく伴奏をつけることができなくなってしまう。 演奏者が楽譜の場所を間違えて演奏をしたときは、そのメロディーは楽譜 のどこかに存在しているわけだから、曲の頭からその部分を検索していって 見つけてまた演奏を再開することができるはずである。もし演奏者がメロ ディーの音を演奏し間違えていたら、一音や二音の間違いならばそのまま 演奏を続け、延々と演奏が間違った状態であれば曲として演奏が成り立た なくなるので止めるか、それともどうせ伴奏が合わなくなっているのだから そのまま演奏を続ければいいのである。演奏者が間違えてメロディーを弾く という事は、ある意味で失敗を意味しているので、その場合の対処法をより よいものに考案するよりは、正しく演奏するという事を前提にして、その時 にいかにすばらしい伴奏をつけてより高い曲を演奏するかということについて 考案するほうが合理的であると思う。技術の高いピアニストは、自分の世界に 入り込んで演奏するので、テンポもリズムも強弱もすべてそのときの気分に よって左右されて毎回ちがう演奏をすると思うが、すばやく対応をする伴奏 システムを持ってすれば違和感のない連弾を実現できそうである。子どもの ピアノ教室の発表会などでは、個人の演奏だけでなく友達同士で連弾を行った りするが、そういう場面で自動伴奏システムを使って演奏するようにすると 人数が少なくてもたくさんの曲を演奏できて楽しめるかもしれない。

「 興味を持てた内容」
・ 尺八の演奏
作品の紹介において尺八を取り扱ったものがあったが、日本古来の楽器を もとにコンピュータミュージックと関連させるという発想はとても良いと思う。 日本古来の楽器を演奏している人は少なくなってきているし、演奏者の保存も とても重要だとは思うが、その音を保存していくことも重要なことであると思 う。 尺八、琴、三味線などの楽器を保存していくという意味でこのテーマに関する 作品は賞賛されるだろう。

6:おわりに なにもわからないままに感想と考えを述べてみた。私が想像したアルゴ リズムや考え方は実現不可能かもしれないし、とうの昔に実現されている ことであろう。でもまずは自分なりに考えることで興味を持てる分野を見つ け出すことができるような気がした。


Computer Musicにおけるセンシングについての考察

概要 コンピュータ外部の要因を取り込んで,Computer Musicを作ったり,コント ロールする場合,そこには何らかのセンサが存在する.このセンサ部分から得 られる情報をうまく利用したり,パフォーマンスなどのすでに芸術的なものと 組み合わせることによって,Computer Musicの可能性・芸術性はよりいっそう 深められると思うのである.

1.はじめに

このレポートではComputer Musicのうち,いわゆる現代芸術と結びついた面 を中心に考察する.それと,音楽をうまく利用して,過ごしやすい空間につい ても考察してみたいと思う.
ここで使った現代芸術とは,かなり著者の思いこみが強い.異論もあると思 うが,ここではコンピュータを使ったCG(3次元も2次元も)のことと,インス タレーション,舞台上でのパフォーマンスなどをさすこととする.
特に,インスタレーションや舞台でのパフォーマンスの組み合わせなど,こ れらはコンピュータ上だけのマルチメディアではなく,実際の世界に飛び出し たマルチメディアだと言える.なぜなら,そこにはセンサが存在し,センサか ら得られる情報をコンピュータ等を使ってディジタルで処理し,結果として人 間は視覚・聴覚などから様々な情報を得ることになるからである.(これは, 一般にいわれているマルチメディアの定義とは矛盾しない.)
人間もそれぞれの感覚器から入った情報を脳で処理するというモデルで説明 される.実際に神経生理学などでもそれは証明されている.コンピュータでも センサから入った情報を処理して理解するという研究は盛んにされている.コ ンピュータ・ミュージックでも,センサから入った情報によって,音そのもの を制御したり,音楽やそれに組み合わされるCGなどを制御したりしている.
センサから入った情報をどのように理解し,芸術的な感性と言ったきわめて 曖昧な表現を実現できるかは,非常に難しい問題である.しかし,コンピュー タが人間のすることを感性レベルで理解でき,人間のように表現することは興 味深いことであり,実現に向けてのベクトルは常に存在しなければならないと 考える.

2.人間からのセンシング

人間からのセンシングについては,人間の内的な状態をセンシングする場合 と人間の動作をセンシングする場合などがある.
人間の内的な状態とは筋肉の動きやそれの一種である心拍などのことである. このような情報は,センサをつけられた人間の意志と反して変化することなど がある.この情報をできるだけ加工をしないで,音楽と結びつけるのも一つの 方法であると考えられる.また,センサで得られた情報をよりバリエーション を持って変化させて(コンピュータが情報を処理する際に,いろいろな意味を 持つようにして)利用することも考えられる.
動作についてのセンシングは,筋電位センサなどによってもある程度読みと れるし,微妙な動きはデータグローブやMIBURIの様な接触型センサが必要であ る.しかし,より自然な動作・パフォーマンスをするということを考えると, 非接触型センサの方が適していると考えることができる.
非接触型センサは人間が判断して音を制御するのに似ている.例えば,演奏 者とパフォーマがいて,パフォーマに併せて演奏者が即興で演奏している場合 や,演劇で動作や声に併せて,効果音や音楽を音響係が出すのに似ている.人 間同士ならば,あうんの呼吸でうまくいく.(練習など事前打ち合わせが必要 な場合が多いが)パフォーマ以外をなるべく人間を排して,しかも接触型セン サを使わないとなると,パフォーマの動きを取り込むのは画像と音からである. この場合,コンピュータは画像から人間の動作のうち必要な部分を取り出した り,動作の速度や動きの間などから,人間の心の揺れのようなものまでを察し なければならない.しかも,これを実時間で行うことは困難を極める.画像処 理も大変な作業であるし,そこからの特徴検出をどれくらいの精度にするかな ど,数々の問題がある.今の段階では,どれだけ単純な処理で,画像から満足 な情報を得るかが課題であると考える.
一方で接触型センサを身にまとった姿も,芸術的といえるし,センサ自体を インスタレーションとすることもある.また,人間以上に相手を察知するため には接触型のセンサも必要である.
もう一つの方向として,センサを応用した楽器や,小道具を楽器や音のトリ ガとして使うというのがある.このような使われ方をすると,センサはコンピュ ータが情報を得るための道具ではなく,センサ自身が存在を主張する.楽器と して,またパフォーマンスの表現の一部として,センサのついたものと,それ を利用した音楽が組み合わさることは,今までにない斬新な芸術表現となり得 る.センサから入る意味づけの仕方や音楽などの制御の仕方は無限の組み合わ せがあり,ここでは作る人間の可能性がある限り,様々な表現ができるであろ う.

3.雰囲気からのセンシング(1)

コンピュータがパフォーマなどと協調しないで,音楽を演奏するときのこと を考えてみたい.このとき,必要になると考えられるのは,例えば,オーケス トラの指揮者がテンポや音をどのように調整しているか?とか,ライブで聴衆 の反応から盛り上がりを判断するか?など,雰囲気を読みとる経験則であると 考える.また,自分がした演奏で返ってくる反応から,次の演奏をどのように 変化させるかといった経験も必要であると思う.
これらはセンサからの情報や客席をカメラで撮った画像を処理した情報を処 理・加工することで,ある程度,それにちかいことは可能である.しかし,そ の情報は膨大であり,リアルタイムで処理し,利用することは困難を要する.
ここで雰囲気を理解して演奏に反映させる方法について,2つ思いついたこ とを挙げてみる.
−−認知科学や心理学,感性工学などで,音楽によってどのような反応や心の 変化が起きるかを調べて,それに従って,最初から経験則を十分にわきまえた プログラムを作ることは可能であろうか?
−−最初にいくつかのパラメータを与えておくと,経験を自分で積んで,(パ ラメータの種類を増やすなどして)演奏がうまくなっていくプログラムなどは どうか?
私は後者の方が可能性があり,楽しみがあると思う.それは,センサによっ て人間の感じ得ない部分まで,感じ取れることができるからである.このこと が良い影響を与えるのかどうかは少し疑問であるが,利用の仕方次第であると 思う.ただし,人間の学習過程の解明など,まだはっきりと解明されていない 部分もあり,労力では両者とも同じであると考える.
このような話は,人工知能の分野とも関連が深いと思う.例えば,エージェ ントシステムのように,環境をセンサによって知覚し,プログラムでこの情報 を処理し,アクチュエータで動作を環境に返し,この環境をまた知覚し・・・ とういうような動作から,学習などをしていくことができるのではないかと考 える.他にも,いくつかの人工知能モデルの応用によって,人間らしいパフォ ーマンス(演奏)のできる,コンピュータを作っていくことが可能であろう.

4.雰囲気からのセンシング(2)

雰囲気のセンシングのもう一つの利用として,その場にあった音楽の生成を 考えてみたい.「その場にあった」というのは何をセンシングして,どんな情 報も交えて,音楽を生成するのか,難しいところであると思う.大体,人間が 音楽と空間の雰囲気をどう認知するのか,定量化するのが困難である.
しかし,”的外れではない”音楽を生成するのはできるであろう.例えば, その場所の利用者に,アンケートを採って,統計学的に音楽の種類(ロック風 であるとかクラシック風であるとか)を割り出して,それにいくつかのパラメ ータを加えて変化を付けて流すことが考えられる.いくつかのパラメータとは 人の数であるとか,そこを歩く人の速さや方向,その日の天気などを加えてみ てはどうだろうか.このパラメータはセンサなどによって,いくらでも入力す ることができる.(どう利用するかは,システムを作成する人間が工夫しなけ ればならないだろう)
音楽を生成するというのは,既存の曲ではなく,いつも同じではない曲をそ の場で作るということである.人間では疲れてしまうようなことも,コンピュ ータならいとも簡単にできてしまう.しかも,その芸術的な質が高いとなれば これは人間にとって幸せなことであると思う.
これは感性情報処理の目的の一つである,人間のようなコンピュータが芸術 を理解した上で生成することになるであろう.そのためには,センサを通して 得た情報を,どのように処理し,理解したらよいかを解明しなくてはならない.

5.さいごに

センサとは,コンピュータと外界との接点である.このセンサは,電圧や電 流の変化を出力したりする.もちろん,カメラで撮った映像もマイクから入っ た音もセンサの出力と同等であると考えられる.
そうすると,センサの出力をどのように処理し利用する過程には画像処理や 信号処理から,生理学や認知科学など様々な学問の要素が必要となる.(もち ろん芸術に対する知識も)
人間が音楽を生成したり演奏したりしている場面を思い浮かべれば,コンピュ ータで音楽を生成したり演奏したりすることは人間について,あらゆることを 知らなければならない.感性情報処理のうち,音に関する部分をとっても,物 理的な現象をセンシングして,それをどう内部処理し感性の情報として受け取 れるかは難しい問題である.
一方で,人間のやり方には惑わされず,結果として同じものが得られればい いという方向もあるように思う.つまり,コンピュータはコンピュータが感じ やすいように感じて,その感覚情報の処理に工夫を加えることによって,結果 を得てみる.これを試行していく中で,人間に近いものが現れるのではないだ ろうか.かなり希望的ではあるが,こちらの方向もあって良いのではないか.


コンピュータが日本音楽を自動作曲する際の問題点

1.はじめに

私は、講義中に実演していたMAXが自動作曲する様子に非常に興 味を持った。同時に、コンピュータによる作曲に音楽のジャンルが限 定された場合、どのような弊害が生じるのか、という問題意識も芽生 えた。
今回、コンピュータが自動作曲するジャンルを最も困難とされる日 本音楽に設定し、その日本音楽の性質を幾つかの側面から捉えること で解明への糸口を探ってみたいと思う。

2.拍子

組歌(何曲かの歌を組み合わせたもので、特に歌詞のあるものをい う)を例に挙げて説明しよう。この組歌の各1歌は、64拍子の筝に よって主旋律がとられている。あるいはその倍の128拍子と考えて もよい。しかし、その拍子は終始一定しているわけではない。すなわ ち、最後の歌の終わりの8拍子だけは、速度を倍にして弾くのが定型 となっているのだ。
また、段物と呼ばれる曲においても同じような拍子の例外が見られ る。この場合は、1段52拍子で、段物の曲の冒頭に「喚頭(かんど う)」いう2拍子の前奏が付け加えられるのが定型となっている。
日本音楽には以上に挙げたような例以外にも、さまざまな拍子の変 化が存在する。これは西洋音楽のように、拍子の変化が曲の雰囲気を 変えるといった効果を果たしているのではなく、単なる決まりとして 存在しているだけだ。このような日本音楽特有の拍子の変化をコンピ ュータミュージックとして表現する際に、あらかじめプログラムして おくことは簡単かもしれない。しかし、コンピュータの持つ偶然性の 魅力に多少なりとも影が落ちるような気がするのは私だけだろうか。

3.演奏法

ここでは、雅楽を例に挙げて説明しようと思う。雅楽の合奏の開始 と終止には一定の型が存在する。具体的に言うと、楽曲の演奏は必ず 横笛1管によって始まるのである。篳篥や笙やその他の楽器で始まる ことは絶対にない。しかも、横笛も同時に2管以上で始まることもな い。
それでは、他の楽器はどこから参加するかというと、8拍子や6拍 子の曲では最初の太鼓の打ち所からであり、4拍子の曲では第2番目 の太鼓の打ち所からである。しかし、弦楽器だけは、更にそれより1、 2拍子遅れて参加するのである。これが合奏の開始の型である。
次に終止の場合は、楽曲の最終の太鼓の打ち所のすぐ前の弱い左手 による発音にくると、音頭以外の合奏者は全部演奏を止める。そして 止め手と呼ばれる終止の演奏が開始される。その止め手においても決 まりがあり、横笛と篳篥、次に笙、次に琵琶、最後に筝の順番で退く ことになっている。また、すべての雅楽が6調子(壱越調、平調など というもの)に大別されるのに従って、この止め手にもそれぞれの型 が存在している。
以上のように、雅楽に限定して、その中でも楽曲の開始と終止だけ 見てもこれだけの事細かな決まりがあるのだ。いかに日本音楽が定型 を重視しているかを証明しているようなものだが、これを諦めずにプ ログラミングしたとしよう。しかし、端から端までプログラムされた 上での作曲がコンピュータの特性を活かしたものだと胸を張って言え るだろうか。

4.礼楽哲学

ここが、コンピュータが日本音楽に抱く最大の難関であると思う。
礼楽哲学とは、簡単に言えば、作曲者や演奏者などの楽曲に携わる 人の心得といったところであろう。以下に、それを書き出してみる。
一.速度
   あまりに急速な音楽はいけない。
二.感情
   官能的な頽廃的なものおよび悲哀に過ぎるものはいけない。
三.技巧
   あまり複雑煩瑣ではいけない。
四.構成
   曲の始めが猛烈であったり曲の終わりが興奮するようなものはいけない。
このような規則をコンピュータのプログラムに反映させることは非常 に困難だ。特に、感情は人間心理に関わることであり、それをどのよう にコンピュータに反映させるか、という問題が生じる。

5.終わりに

以上、3点から日本の伝統的音楽を考察してみた。これを通じて、日 本音楽には、その種類毎に定型というものがはっきりしている、という ことが明らかになった。いや、日本音楽だけではなく、歴史ある音楽に はすべて決まり事が存在する。ふさわしい楽器、ふさわしい曲調…、そ れらが合間って、音楽をジャンルに大別する要素と足り得ているのであ る。言い換えれば、その要素をうまく踏襲すれば、コンピュータがいく らいい加減に作曲した曲でも、人間は「それらしく」認知してしまうの だ。
しかし、私はそこに大きな落とし穴が存在していると思う。定型を反 映するプログラムによる作曲なら、もう既に音楽業界に名を馳せるプロ デューサーがしていることと大きな違いはない。そうではなく、私は、 コンピュータの偶然的な芸術性にもっとかけてみてはどうかと思うのだ。 つまり、コンピュータという新たなメディアに伝統や型というものを打 ち破る可能性があることを多くの人に認識して欲しいと思うのだ。伝統 や型を重んじる作曲方法が悪い、と言っているのではない。ただ、その ようなやり方なら、人間でもできる。せっかく、コンピュータというマ ルチメディアが登場したのだから、もっと大きく構えてケーキを味噌汁 に浸して食べるくらいの度量で迎えて欲しいと思うのだ。


カオス理論及びその応用法について

概要

この講義の中の話題として特に印象に残った理論として、カオ ス理論がある。私は、文系の学生であるので、これまでその理論 について知る機会がなかった。しかし、この講義を通じて、その 理論について興味がわいたので、より深く探求してみたいと考え た。

1.はじめに

ここで話題となっているカオス理論の「カオス」という言葉の 本来の意味は「混沌」であり、整然としたシステムや規則が存在 しない状態を指している。
そして、数学及び物理の分野において、「カオス」という言葉 は以下のように定義されている。
『カオスとは,あるシステムが「ある時点での状態(=初期値) が決まればその後の状態が原理的にすべて決定される」という決 定論的法則にしたがっているにもかかわらず、非常に複雑で不規 則かつ不安定なふるまいをして遠い将来における状態が予測不可 能な現象のことである。』
この定義は、本来の「カオス」という言葉が持つ意味をさらに 発展させたものであると言える。そして、この中において着目す べき点はやはり、決定論的法則があるにも関わらず、次の状態が 予測不可能のまま展開していく、という点にある。
事実、システムの状態の将来は、ある定められた漸化式に従っ ているので、それならば、次の状態、その次の状態、そのまた次 の状態が予測可能であると考えるのが妥当なところだが、実際は そうではないのである。
これから、そのような可能性を内に秘めたカオス理論について 述べていくわけであるが、この理論は、数学及び物理の歴史の中 で突如として生み出されたわけではないので、まずは、その歴史 的背景から見ていくことにする。

2.数学及び物理の歴史的背景〜カオス理論の生まれたいきさつ

自然の現象をモデル化するにあたっては、前述した決定論的法 則、すなわち、『ある時点で状態が明らかである時、その後の状 態は原理的にすべて決定される』ということが前提となっている。 なぜなら、自然の現象をモデル化するということは、すなわち、 『現象を数式で表す』ことであり、結果が予測できなければ、そ れが不可能になるからである。
この考え方は、数学や物理の歴史のひとつの出発点となった。 そして、物理をモデル化する上でのそのような考え方に基づいて、 ニュートンがつくりだした微分方程式によって確立されたのが、 『線形としての数学』である。
例えば、現在の数学及び物理では、ボールを空に投げたとき、 それが何秒後に地面に到達するかを正確に計算できるようになっ ているが、これは、線形と呼ばれる方程式により計算している。 つまり、変化した後の状態が正確に予測できるという前提に立ち、 定まったひとつの数式によって現象をモデル化しているのである。
線形の方程式とは、例えば y=ax+b のように、独立変数を持っ た方程式のことである。この場合の独立変数は、x と y であるが、 独立変数は、この場合の a と b のような変数の値には左右され ないので、x の値が決まれば、自ずとyの値も必ず1つ決まること になり、x の値により、変化した後の状態として予測される正確 な値である、y の値が決まることになるのである。
数学と物理は、このような線形の方程式によって現象をモデル 化していく、ということが基幹となり、歴史の中でその体系が作 られていくことになった。
しかし、その過程の中で、実際問題として全ての自然現象を正 確な形として表現することに無理があることが、少しずつ明らか になってきたのである。
このことがわかってきた当初の段階では、このような現象は、 何らかの誤差であるとされ、あくまで例外として、数学及び物理 の範囲外のものと見なされてきた。だんだんと物理体系ができあ がってきていた当時、そのような例外は必要とされなかったから である。しかしながら、その過程において、多くの自然現象が解 明されていくうちに、不要と見なされていた例外を無視すること ができなくなったのである。例えば、前述の例での線形方程式、 y=ax+b において、例えば本来の値を x とし、それと比較して誤 差が生じた場合の値を x' として考えると、x とその近傍の x' の値の違いが、線形に y と y'の違いとして現れてくるが、その わずかな x と x' の違いが、全く予測もつかない y と y' の違 いとして表されることになる、ということがわかってきたのであ る。そして、そのような違いが、周期的な振動だけではなく、不 規則な振動として現れることもわかってきたのである。
このようなことを通して確立されつつあるのが、先の『線形』 に対する、『非線形としての数学』である。
気象学者ローレンツは、このような非線形に触れて、「蝶の羽 ばたきによるわずかな風が、数カ月後の、例えば台風の進路に影 響を与えているかも知れない」と考えたという。物理の世界で、 このことは『バタフライ効果』と呼ばれ、非線形としての数学及 び物理について、その可能性の広がりについて言い当てたもので あると言えよう。
そしてこのことが、それまで基幹となっていた『自然現象の正 確なモデル化』という考え方に対し、一石を投じることになった のである。
そのような流れの中で、カオス理論について考えてみると、カ オス理論は、決定論的法則があるので、線形のカテゴリーに入る と思われるが、その規則的な数式から予測のつかない軌跡を生み 出すことになるので、非線形であると解釈すべきである。

3.カオス理論

カオス理論の中で代表とされている方程式として、以下のよう なものがある。
   Xn+1 = r*Xn(K-Xn)/K 
 (注:この場合の左辺は、数列 X の第 n 項に 1 を加えたと言う 意味ではなく、数列 X の第(n+1)項という意味であることを付記しておく)
これは、ロジスティック方程式と呼ばれ、ベルハルストという 学者が作った、人口増加の仮説の式である。
この式においては、初期値を固定し、K に定数を与え、r の値 を変えていくことによって、数列 X の値が様々な現象として表 現されることになる。
例えば、初期値を0.1、K の値を1.0とし、r の値をいろいろと 変化させてみた時は、その r の値により以下の現象が生じる。
 a) 0 ≦r< 1
  計算を繰り返すと、Xn の値はだんだん 0 に近づいていく。
 b) 1 ≦r< 2
  計算を繰り返すと、Xn の値はある1つの値になる。
 c) 2 ≦r< 3
  はじめ Xn の値は、ある2つの値を交互にとっていくが、やがて ある1つの値へと収束していく。
 d) 3 ≦r< 3.44949
  c)のように2つの値が交互にあらわれ、その後も収束せず、 その2つの値を維持し続ける。(これは、周期が 2 であるこ とを示す。)
 e) r≦ 3.44949
  例:r= 3.44949 の場合
  はじめ4つの値を順番にとっていき、上下2つずつがそれ ぞれある1つの値へ収束していくので、最終的には2つの値 に収束し、それを交互にとっていくことになる。
  例:r= 3.46934 の場合
  はじめに4つの値をとっていくが、その後も収束せず、そ の4つの値を維持し続ける。(周期は 4 である)
  例:r= 3.56195 の場合
  はじめに8つの値をとっていくが、その後も収束せず、そ の8つの値を維持し続ける。(周期は 8 である)
  例:r= 3.57256 の場合
  はじめは4つの値をとるが、そこからそれぞれ二手に分岐 し、それがもう1回それぞれ複数に分岐する。
 f) rがある一定の値を超えた時
  周期が規則的に現れなくなる。そして、いかにもでたらめ にXnの値が変化していくような状況になる。(カオティック な状態。)例えばr= 3.82003 の時など。
 g) さらにrがある一定の値を超えた時
  突如として、周期が3である規則的な変化をするようにな る。例えばr= 3.82859 の時など。
以上のように、規則的な変化をしたりカオティックな状態を 示したりするのである。
これらの現象は、1974年に、学者であるロバート・メイが、 コンピュータによる数値実験によって解明された。その際彼は、 ある1点を超えると、周期を持たないような状態が生まれるこ と、また、rの値によって、あらゆる周期を持つ状態が現れて くることを得たのである。
その後、1975年に、リーとヨークが、先のロバート・メイの 得た現象を、数学として証明した。そして、その際に数学にお いてカオスという言葉が使われるようになったのである。

4.カオス理論の応用例

このカオス理論が、現在、コンピュータネットワーク上での セキュリティに応用されている。
例えば、実際にパッケージ化されているソフトとして、(株) 国際情報科学研究所が出している「Chaos Mail」がある。
これは、カオス理論を暗号化に応用し、電子メールの盗聴、 改ざん等、セキュリティに関する問題を解消させようという製 品である。
そしてこの製品の基盤となっているのが、「GCCカオス暗号」 と呼ばれる技術である。これは、カオス理論が持つ特性、例え ば、軌道が不安定で周期性がないことや、予測不可能なこと、 一方向性を有することなどを利用し、暗号化キーを知らない限 りは、少なくとも現在使用されている線形攻撃法、差分攻撃法 などの手法で解読することを不可能としているのである。

5.おわりに

今回、カオス理論について自分にとっての発見となったのは、 情報の分野において、このカオス理論が、情報科学のみならず 情報社会の領域にも応用されている、という点であった。
セキュリティを確保するということは、カオス理論の社会的 役割であると言えよう。まだ完全な形で役割を果たしていると は考えられないが、今後、この分野においてますます発展して いくことになるだろうと考える。
また、今後このカオス理論が、どのようなものへ応用されて いくことになるのか、非常に楽しみである。そして、社会的役 割を担うものとしての科学技術の今後の発展にも注目していき たい。


私がコンピュータミュージックをつくるとしたら

概要

この講義中、邦楽がコンピュータミュージックに使われている ことを知り、お琴はどうだろうと考える。そこからお琴の音階の特徴、 なぜその音階が日本的に聞こえるのか考察する。そして、具体的に どのようにお琴を使うか考える。

1. はじめに

音像メディア論を受講して印象に残ったことは、笙や尺八などの邦楽器 を使ってコンピュータミュージックができるということだった。日本の 伝統的な楽器と、最先端のコンピュータミュージックは以外と相性が良い ものだと思った。そこで、他の邦楽器はどうだろうと考えるに至った のである。私は高校時代、筝曲部に所属しており、お琴の魅力に魅せられて いた。お琴は現代音楽に使うと、何とも言えない雰囲気を醸し出すのである。 お琴はコンピュータミュージックに向いていないだろうか。そこで、 お琴のことについて考えることにした。

2. お琴の音階

お琴は基本的に平調子という音階に調弦する。この音階は「レ」と「ソ」 の音を抜いている。低い方の弦から音を言うと、「ミ・ラ・シ・ド・ミ・ ファ・ラ・シ・ド・ミ・ファ・ラ・シ」である。このままボロロンと 弾いてみると不思議に日本的な感じになる。「さくらさくら」はまさに 日本的なメロディーだが、これはお琴で弾くことのできる最も簡単な 曲である。最後に一回「レ」が出てくるだけで、それ以外はそのまま 弦を弾けば良いからである。(ちなみに「レ」の音を出すには、 「ド」の弦を押しながら弾けば良い。)お琴はこの音階で曲を弾くと 何でも日本的に聞こえる。なぜだろうか。

3. 日本的なメロディーとは

文献によると、日本人には、四度の隔たりが1つの単位 となるテトラ・コードが自然な音感覚であるそうだ。確かに、お琴の 音階では「ミ・ラ」や「シ・ミ」、「ファ・シ」など四度になる確率が高い。 また、著者によると、「赤とんぼ」など、四度の出だしで歌いはじめられる 歌は、時代をさかのぼるほど増えてくるらしい。では、外国の音楽も、 四度の音階が使われていると日本的なメロディーとなるのかというと、 そういう例もあるらしい。ロシア民謡の「トロイカ」は、もし日本の曲 として歌われても何の違和感も無い。そういえばこの歌の出だしは四度である。 また、この本を読むまで知らなかったのだが、「蛍の光」も スコットランド民謡だそうだ。この歌も四度の出だしである。そこで 思い出したのだが、お琴で「六段の調べ」という有名な曲があるが、 これも四度の出だしである。これだけが日本的なメロディーの要因では ないと思うが、日本人の感じる自然な旋律線の1つの典型には成り得る のではないだろうか。

4. コンピュータミュージックとお琴

お琴の多くの曲が日本的に感じる原因はわかった。私がコンピュータ ミュージックを作るとしたら、お琴の音色やこのような音階を活かして 作ってみたい。普通の音楽(といったら語弊があるかもしれないが)を 聞きなれた私としては、まだ授業で聞いたようなコンピュータミュージックに あまり魅力を感じないからである。また、パフォーマンスをするとしたら、 お琴で伝統的な音楽を弾いて、それを加工して全く違ったものを同時に聞かせる というのはどうだろうか。それに合わせて後ろにCGを映したり。 衣装は着物が良いかもしれない。

5. おわりに

いろいろ勝手なことを述べてきたが、それはつまり、コンピュータ ミュージックがそれだけ懐が深いということだろう。 リズムや楽器の制限もなく、自分のしたいことをできる。また、現在、 音楽にコンピュータが関わらないことは滅多にない。今後コンピュータが 使われる機会は増えて行くことを合わせて考えると、コンピュータミュージック 人口はますます増えていくだろう。


コンピュータミュージック

概要

音楽と科学というのがコンピュータを触媒にして、どのように関係して いくのかを考える。また、コンピュータミュージックという分野がどの ように発展してきたのかと、人とコンピュータミュージックがどのよう に関わっているのかを考察する。

1,はじめに

ただ単にコンピュータミュージックといっても様々なアプローチの仕 方が存在している。打ち込むだけのコンピュータミュージックもあれば、 人間と密接に関係しているコンピュータミュージックも存在している。 リアルタイム、ノンリアルタイムの違いなどその種類は区分けすれば幾 らでも考え出す事ができる。このような様々なコンピュータミュージッ クを以下で紹介したいと思う。

2,打ち込むだけのコンピュータミュージック

この部類のコンピュータミュージックの代表的な例としてはMIDIを上 げることができる。これはMIDI対応の楽譜を書き込む事によって何度で もまったく同じ演奏が行なえる事ができる。決して間違う事はなく普遍 性が期待できる。しかし、その反面音楽を芸術として捉えると、何らか のパワーが足りないといわれている。例えば音量の変化であったり、テ ンポの変化であったり、音色の変化である。コンピュータというのは同 じ事を処理するのは得意であるが人間が表現しようとするあいまいなニ ュアンスは不得意である。芸術的なミュージックをいかにつくりだすか が今後の課題であるといえる。最終的な目標としては誰が聞いてもMIDI と演奏者の演奏を区別できない所までニュアンスを付けれるかどうかで ある。

3,リアルタイムでのコンピュータミュージック

リアルタイムでのコンピュータミュージックは今日セッションという 形でよく行われている。人間がある種の動作を行う事によりリアルタイ ムで処理し、それを音楽として発表するという形式のものである。
人間が持っている一番の音楽の道具は声である。声というのは全ての ステップで密接にリアルタイム制御を行っている。自分の声を聞き、リ アルタイムによりコントロールしているのである。思っている事を反映 するということはコンピュータミュージックにおける第一の課題である。 リアルタイムでの情報処理は演奏者の意思を反映することが大変難しい。 ノンリアルタイムであればある程度の演奏者の意志は反映する事ができ る。しかし、リアルタイムとなるとその場でコンピュータで処理しなけ ればならないので失敗というものも考慮に入れなければならないのであ る。このことを解決するために現在の多くのパフォーマンスは偶然性を 重点に置いた作品が数多く出ていると思う。またピッチ抽出、メロディ 検出などを行い、パターン認識により演奏が止まってしまう事などを防 いでいる。
このようにリアルタイムのコンピュータミュージックは人と人とが行 うセッションよりも格段に難しく、ギクシャクするのが現段階での現象 である。このような問題を解決するためにコンピュータに人間的あいま いなニュアンスを持たせる事がリアルタイムでできるように日夜研究が 行われている。

4,これからのコンピュータミュージック

コンピュータとはもともと仕組まれている音に対して正確に再現する のは得意な分野であるが、それをこのまま行なっていくと演奏者の創造 性を抹殺することにつながってしまう。これではカラオケをしているの とあまり変わりがないのである。このような演奏者の創造性を壊してし まわないように先ほど述べたようにライブ演奏が行われている。これは 演奏者に音楽の進行を委ねているので演奏者の意図が大きく反映する部 分において指向されている。しかし、リスクが多いのでリハーサルが重 要な部分を占めてくる。コンピュータミュージックはまだ発展途上にあ るのでこれからもっと多くの数のコンピュータをつなげてのセッション なども行われるであろう。

5,おわりに

この数年の間にコンピュータは凄まじい発展を遂げてきた。それに伴 いコンピュータミュージックも発展を遂げた。最初のコンピュータミュ ージックの研究は現在ではすごく簡単なものであった。またここまで発 達した理由はコンピュータの普及なくしては語る事ができない。昔は、 一部の設備が整えられる研究者だけが研究を行っていたのである。それ が今日ではパソコンを持っていればコンピュータミュージックを作成で きるようになったのである。更なる時代の波によりコンピュータミュー ジックは発展を遂げるであろう。


インタラクティブアート、マルチメディアアートについて

概要

私が授業を受ける前に触れたことのあるインタラクティブアートから受けた刺激につ いて書き、そこから自分で作りたいと思っていた作品の概要についてふれ、どのよう にしたら利用者にとって面白い作品ができるのか、を突き詰めて考える。

1.はじめに

MTVの登場以来、曲のプロモーションの一貫としてビデオクリップが脚光を浴び出し た。曲から感じられるイメージを映像にして、それをテレビで流す。視覚と聴覚に 訴えることで、より制作者の意図していることが伝わる。目で見るもの、耳で聞く ものは、文章を読むことよりも簡単に、見るもの聞くものに理解される。しかしイ ンタラクティブアートや、マルチメディアアートは曲紹介的なものと違い、感覚を 刺激するタイプのものが多い。私がさわったことのあるものの一つにイギリスのア ート集団で「TOMATO」というグループの「ANTI-ROM」という作品がある(@ザ・ギ ンザアートスペース、1997/7月)。これは彼等が感じた何かをコラージュして、そ れを一つのながい帯みたいなものにして、マウスの操作で横に流れたり、縦に動い たりするものである。彼等のメンバーのなかにイギリスで有名なテクノミュージッ クグループの「UNDERWORLD」のメンバーが二人いるため、今どきのテクノミュー ジックが鳴りながら絵の変化を楽しむといったものである。同時に音も早さが変 わったりした。今までの私が考えていた、絵と音のつながりを変えてくれた作品 だった。作品は作者が作ったものには違いないが、観客が使うことによって、作 者も予期していない素晴しい作品に変化するかもしれない。観客が自分でその作品 を自分なりにアレンジできるのだから作者が万人受けするものを作る必要がなくな った。これからの時代は「カスタマイズ」の時代であるから、アートの分野は先に 進んでいたのかもしれない。「ANTI-ROM」は私に大きな創作意欲を沸かせた。次に 私が考えていた作品について書いてみたい。

2.車窓とテクノ

今現在私は週に一度、静岡市にある大谷キャンパスに通っている。電車のなかで立 ちながら乗っている私は、窓の外のしたのほう、線路を見ながらゆられている。 線路はずっとまっすぐに2本伸びていてとぎれることはない。自分は電車に乗りな がら眺めるため、視線は安定せず、まっすぐになったり、波打ったりしている。下 に敷いてある石の形が識別できないほどの早さで走っている。その絵の流れる様を 見ながらBPMの早い曲を聞くと、絵と音に一体感があって、偶然のマルチメディア アートだと考えていた。それだけでなく、夜の暗闇のなかに浮かぶ街の明りも電車 の早さによって位置を変えながら遠ざかっていくのも一種のアートだと考えていた。 これを何か作品にできないだろうかと考え、MACROMEDIA FLASH 2でつくってみたが ソフトの制約上いいものは作れなかった。その経験からDIRECTORで作ることを計画 していた(以前メールで長嶋先生にMAXを勧められたのでそちらも視野にいれて検討 している)。どのような作品かというと横に線が流れ、車窓の景色のようにランダム に上下したりする。そして速さをマウスや画面上のスライダーを操作して変えてやる と、CDプレイヤーのなかにはいっている音楽CDのピッチも変わる仕組のものである。 逆回転やループも設定できるようにする。言葉にすると案外簡単なものかもしれない が、こういう単純なもののほうが、人にとって刺激を与えるのではないだろうか。

3.自分なりの評価

自分の作品として考えていたことは常に自分の新しい体験によって変化していく。 私にとって、スピード感というものが面白いのであって、他の利用者にとってはつ まらないかもしれない。それに既存の音で楽しむというよりはそのアート用に何か 曲ではない音、自然の音をサンプリングしてコラージュした意味不明な音とかのほ うが面白いと最近考えるようになった。それとWINDOWS95のスクリーンセーバーに あった宇宙旅行といったやつをうまくこのコンセプトに当てはめて作品を作ってみ たいとも考えている。

4.おわりに

いろいろと考え、面白い作品を自分でも作って見たい。もっといろいろなインタラク ティブアートに振れたいと思う。


コンピュータミュージックとパフォーマンス

概要
コンピュータを使った音楽がいろいろと世の中には増えてきて いるが、MIDIデータを使って決まった演奏をならして歌を 歌うというものではなく、実験的にはどのようなことが行われ ているのかについて調べその考察を書いた。

現在、コンピュータミュージックは電子楽器、センサなどを用 いた多様なものになっている。電子楽器と一口に言っても従来 の楽器をベースにしたものと、研究者であり演奏者である人が 新たに考案したものがある。センサなどには、人間の体の動き 繊細な動きから大胆な動きまで、パフォーマーの感情をより明 確に表現するためにつくられたもの、脳波、筋肉中の電気的な 信号をとらえ音として表現するものがある。また、自然の雲の 動きや、湿度、温度の変化、大気中のガスの変化など、自然の リズムをデータとして扱い、コンピュータで処理し、音として 表現するというものまである。それらを利用したパフォーマン ス、 ライブにつて書いて行く。
現在行われているパフォーマンスには、ダンスを取り入れたり 演劇性を取り入れたもの、本職の演奏家とコンピュータのセッ ションを行うもの、電子楽器を演奏家が演奏し、コンピュータ がそれに合わせて演奏するもの、声を利用するもの、映像を取 り入れたもの、様々なセンサを使用するものなどがある。 これらを組み合わせ、自分の表現したいものに近づけて行くの がコンピュータミュージックのライブである。
コンピュータミュージックとしてライブを行うのかそれとも コンピュータミュージックを取り入れたものとして行うのか は,作り手側が,どのような立場の人間であるか,というこ とにかかっていると思う。研究者の立場にある人間は,研究 しているものが,コンピュータミュージックであるから,コ ンピュータミュージックとして行っているのだと思うし,音 楽家の場合はコンピュータを使うことを表現手段の一つとし か考えていないと思う。またダンサーはより自分の動きを表 現するための手段としてセンサを利用するであろうと思う。
表現したいものの種類に,ジャズ的な物,クラッシック的 ポップス的な物があったり,完全に前衛的な物があったり する。前衛的な物は,ある程度歴史を積み重ねてきた従来 のジャンルに比べ,新しいことに次々と手を出すので,面 白いが,聞き手側にとって聞き慣れないは,ときに不快に 感じることがあると私自身は思う。コンピュータミュージ ックというものは,一般にはまだ市民権を得られていない が,スタンダードが確立しない音楽はやはり聞き手にとっ てはただよく解らないものでしかないのだと思う。
今後いろいろなパフォーマンスが登場するであろうが,そ れらをまとめられるだけの能力と才能のある人間がコンピ ュータミュージックにかかわるまでスタンダードは確立し ないであろう。しかし,その才能のある人間は従来の物に 走るのが世の常であるから,まだまだこれからの分野であ ると思う。


コンピュータミュージックに触れて

概要

長嶋先生の講義によってコンピュータミュージックというものがどのよう なものであるかを学んだ。この中でも自分の興味のある物事を取り上げて、 得た知識や思ったこと考えたことを述べていきたいと思う。

1.はじめに

音像メディア論の講義によって、コンピュータミュージックにも様々な研 究があり、様々な方向からのアプローチがあることを学んだ。以下では コンピュータの音楽の知覚・認知、コンピュータとのセッション演奏、 MAXによるアルゴリズム作曲、について述べたいと思う。

2.コンピュータの音楽の知覚・認知

ここではコンピュータの音楽の知覚・認知について述べる。つまり、コンピ ュータに採譜をさせるというアプローチである。これは、コンピュータによ る音楽情報処理に関するテーマである。この分野では、ノンリアルタイムで の楽譜採譜・周波数分析行う。楽譜採譜というテーマは市販ソフトが 販売されるほど研究が進められた。具体的に言うと、実際の演奏をコンピュ ータに聞かせ採譜や周波数分析を行うわけであるが、ノンリアルタイムで行 うことは比較的簡単に誰にでも行うことができるようになっている。逆にリ アルタイムでの採譜は、現在でも研究が行われている。この研究は、人との セッション演奏の研究に結びつく課題である。この、リアルタイムでの採譜 ですごいと思うのは、演奏者がミスをしてもとまらずに追従していくという 研究発表である。このようなシステムがどのように成り立っているのかが興 味深いものである。また、上記の採譜の研究でもMIDI楽器からの採譜とMIDI ではない音響からの音響情報を入力するためには最新の技術が必要で、とて も難しいものである。また、僕自信が今後どうなるかが気になるテーマとし て、人間の感情を判断できるシステムつまり、この曲は明るいとか芸術的だ と判断できるシステムの研究というのがある。このテーマは幅広い分野での 研究がミックスされなければならないため、かなり困難なものと考えられる 。まず、人間の認知・評価システムを解明しなければならないからである。 だが、いつか実現してほしいテーマである。このように、コンピュータの音 楽の知覚・認知のテーマは幅広く困難なものであるとわかった。しかし、目 が離せないテーマであることに違いない。

3.コンピュータとのセッション演奏

ここでのテーマは、コンピュータによる採譜ともかぶる問題である。まず 、セッション演奏するにはリアルタイムに採譜しなければならないからであ る。具体的に、ここでは生身の演奏をしている最中に伴奏や競争の処理を行 い人間の演奏にコンピューターが追従するのである。ここでの大変さは「2 」で述べたとうりである。このような研究のなかで指揮者の指揮にあわせて 演奏するというシステムを講義でも見たが、このような場合、すでにシーケ ンサにすべての音楽演奏情報が確定しているために簡単に実現するものであ る。また、講義では他にピアノ演奏の追従などのデモテープをみた。しかし 、ピアノ演奏のデモは確かにすごいと思ったがどうやらまだ完璧ではないみ たいである。講義用参考書として配られた資料にも書いてあったが、演奏者 の突然の加速などに追従する場合コンピュータではギクシャクするという問 題がある。このような問題は、すぐに解決するのであろうか?。僕自信ない 頭を絞って考えてみて、すぐにできてしまうものではないだろうか。知識の ない人間が軽はずみに言うのはどうかとは思うが、今までのコンピュータ技 術の発達を考えてみるとそう思えてくるのである。これから更に最新のコン ピュータやその周辺機器が開発されることは間違いないからである。今後、 演奏者の独奏に対しコンピュータが勝手にそれにあった伴奏、メロディで追 従していくようなシステムができてほしいと思う。

4.MAXによるアルゴリズム作曲

このMAXというものは、音楽家にとっては画期的な開発ではないだろうか。 作曲というのは、音楽を生成していくアルゴリズムを記述するものである。 これを昔の音楽家は様々な言語によって処理するプログラムを開発しなけれ ばならなかった。しかし、このMAXというのはGUI機能というものによって簡 単にアルゴリズムを記述することができるようになったのである。講義でも 、この機械を用いたが、見ている方にも簡単そうで実際には扱っていないが 面白そうなものであった。根が得てみても、良く分からないプログラムをや らず、MAXを用いるというのは魅力的なものである。このようなものは、近く 一般の家庭でもゲーム感覚で普及することも考えられであろう。

5.終わりに

この講義によって、コンピュータミュージックというものを体験し、その 背景やその特徴を知ることができたわけだが、この分野にもいろいろな未来 がありまた欠点があると思う。未来というのは今後開発していくテーマが無 数にあり、その前途は険しいものだが光が見えないわけではないということ である。しかし欠点もある。特に、コンピュータミュージックのライブで思 うことであるが。生身の人間のライブだとその演奏者独特の特徴や気性、性 格を垣間見ることができるが、コンピュータの演奏ではそれは感じることは できないのである。人はよくその人の雰囲気や性格にひかれることがある。 この観点で言うとコンピュータミュージックと生の人間の演奏には大きな違 いがある。つまり、大きな感動を聴覚だけでは表現できないのではないだろ うか。この事は今後解決されない問題である。しかし、コンピュータミュー ジックの神秘さや、マルチメディアアートなどの発展によってそのような問 題は大きなものでなくなるであろう。このようなことを考えると、今後のコ ンピュータミュージックの発達が楽しみである。


音とはなにか

概要

音とは何かという簡単な疑問から始まり、日常生活の中やこれまで の経験の中で不思議と思ったまま、忘れ去っていた事象について科学的に 説明をする。また、例として音の速度である音速についての説明、音波を 使った研究や活用法などを簡単に述べる。

1. はじめに

私が、音像メディア論の講議を取ろうと思ったのは、コンピ ュータを使った音楽というものがどのようなものなのか興味があからだっ た。しかし、3日間の講議を受けている中で、コンピュータが作る音であ ったり自然界の音であったり、普段何の不思議もなく耳に入ってくる「音」 について、私はほとんど知らないのだと思った。今まで知らないというこ とにも気付かずに生活をしていた。だから、知らなくても支障はないのだ ろうと思う。しかし興味をもったのを良い機会に、まず「音」について少 し調べてみようと思った。これで最後には私なりに「音」というものの形 が見えてくればいいと思う。

2.

音は、空気の振動である。空気の圧力の平均より高い部分と低い部分 ができ、それが波となって伝わっていく現象である。空気が押されると押 された空気が密集して、まわりより圧力の高い部分ができる。この部分は 隣の空気を押し、さらに押された空気の圧力が高くなって隣の空気を押す 。この繰り返しが波のように次々と伝わっていくのである。これが音が伝 わっていく仕組みである。そして音を伝えるのは、空気だけではない。そ の他の気体や固体もまた空気同様音を伝えることができる。音とは、つま り空気のような物質(媒質)に、圧力の高いところと低いところが波のよ うに疎密にできること自体が音であると言える。だから、物質が存在しな い真空の状態では音は伝わらない。
また、音が進む速さは音の媒質によって変わってくる。空気中の場合、毎 秒約340mである、しかし同じ空気中でも昼と夜とでは温度が変わり、夜 のほうが遠くの音が良く聞こえてくることがある。思えば、私の家はJR の線路より南にあり、くるまで少し南に向かえば海岸があるような場所に 位置している。しかし、昼間聞こえてこない波の音が、夜家々が寝静まっ た頃にハッキリと聞こえることがしばしばある。これは、昼間とは違い車 の音や様々な他の音が聞えこなくなったからかもしれないが、音を伝える 空気の変化によるものなのかもしれないと思った。音は気温が高い程速く 伝わる。昼は地表近くが太陽の熱で熱せられて温度が高くなっているため 、音は速度が速くなり上空へ向かって屈折してしまう。一方夜は速度が遅 くなり昼とは逆に地表に向かって屈折するため、音は遠くまで伝わるので ある。
音の速度の話に戻ろう。空気中でも温度の変化によって音の速度(音速) は変わるが、水中では毎秒1500mにも達する。また、鉄やガラスなどの固 体中ではさらに速く、毎秒5�を超えることがある。

3.

次に、先に述べた音の速度(音速)について私が興味を持ったのは、 水中における音である。私事であるが、趣味でスキューバダイビングをや っている。その時のことで、潜っていると水中の世界は神秘的なほどに静 かだが、人工の音例えば水上を通るボートの音などは、びっくりするほど 大きく聞こえてくる。そして音の源がどこにあるかよく分からないという くらい、様々な方向から音が聞こえてきているように聞こえる。まさに水 の中は音の世界である。よく潜水艦映画でソーナーという言葉を耳にする 。映画の中でも、相手の潜水艦の出すソーナーの音をじっと聞く場面を見 たことがある。
ソーナーとは、水中で障害物などを発見することができるものであるが、 その原理は「山びこ」である。ある方向に短い音(パルス音)を発して反 射音が返ってくるかどうかと、それにかかる時間とで目標物との方向と距 離をはかる。水中の音の進む速さは前にも述べたとおり毎秒約1500mであ り、0.1秒で反射波が返ってきた場合、片道で0.05秒なので1500×0.05= 75mといったぐあいに距離をはかれる。そして、水中での音速は空気中の それと同様に水温、水圧、塩分濃度などによって変化する。海中では深度 が深くなると水温が下がって音速が遅くなる。しかし、さらに深度が深く なると水圧が大きくなって音速が増大する。そこで深度1000m前後が最も 音速の遅い領域となっている。それよりも深い領域や海面近くでは速いわ けである。
この速度分布は地球気性の影響を大きく受けるので、音波の伝わる様子を 調べることで、地球温暖化などの基礎データを得ることがなされている。 光や電波は、水中ではすぐに弱まって遠くに伝わりにくいが逆に音波は遠 くにまで伝わるため、水中における様々な調査にも役に立っている。

4.

次に音の中の人が発する声について少し興味を持ったことがある。小 さい頃、まだCDやMDが世に出ていなかった頃、カセットテープに自分 の声を録音したことがある。自分でも忘れていたのが、ある日懐かしいそ のカセットテープが出てきたので聴いてみた。中身は何のことはない、姉 との意味もない会話だったがみょうに自分の声が気に入らない。姉の声は 当時の物なのに、私の声だけが聞いたこともない声に聞えた。まわりに聞 いてみるとカセットテープの声が私の声そのままだというが、納得できず に機械のせいにしてそのままほっておいたおぼえがある。それからずっと なぜかわからなかったが、気にすることもなく生活してきた。しかし思い もよらぬところで真相がわかったのである。なぜ、録音された自分の声だ けが違って聞こえるのか?その理由は「骨導音」にあるというのである。 口から出た音は、空中を伝搬し自分の両耳に到達する。この伝わった音は 「気導音」と呼ばれる。一方顎のあたりに手を触れながら大きな声を出す と手に振動が伝わるのがわかる。このように、発生時の声帯振動は頭骸骨 を通じて直接的にも内耳に伝えられ結果として音が聞えてくる。この音が 「骨導音」である。自分以外の人は気導音だけを聞く、テープレコーダー に録音される音もこの気導音だけである。しかし、自分は気導音と骨導音 を同時に聞いているため、違った声に聞こえるのである。時間遅延とイコ ライザーを用いて自分が聴く自分の声の周波数特性を測定した研究におい て、自分の声は録音された音に比べて低周波数ほど強く、高周波数ほど弱 く聞こえることが示されている。したがって、発声者が自分の声をこもっ た声に知覚していることを裏づけるといえる。
これでようやく謎がとけたような気がする。私は、自分の声はこもってい て、あまり通りが良くないのだと思っているが、発生した声が皆こもって 自分に聞こえるのであるとすれば、私の声も自分で聞いているほどこもっ てはいないのだろうと思う。

5.終わりに

私達の日常には数えきれないほどの音が散乱している。し かし、私達の耳はそれらの中から必要なものを拾いだし、大きすぎたり小 さすぎたりする音に無意識に対処している。私は、音楽についてはほとん ど知識はなく、楽譜もまともに読めない。けれど、今回「音とはなにか」 という単純なことをあらためて調べて知ることができ、まわりに溢れてい る音に対する見方が少し変わってきたような気持ちがする。このレポート を書くにあたって次々と、音について不思議だ興味があるといった事柄は 出てきた。また、いつか納得いくまでゆっくり調べてみようと思う。音に ついて調べただけで、講議の内容だったコンピューターミュージックにつ ては、触れることはできなかった。今の私では講議以上のことはまだ難し く理解するのも大変。けれど、この先機会があったら今回のように自分で ゆっくりと調べて理解していきたいと思う。


コンピュータミュージックの未来

1.はじめに

現在、音楽を作るうえでコンピュータは非常に有効なツールである。音楽 制作のいたるところでコンピュータは利用されている。しかし、コンピュ ータから奏でられる音は計算され、スピーカから発せられる音であって、 自然界の音とは異なるものである。そこを自然に近づけようとすることも 可能であるが、それとは反対にコンピュータでしか出せない音を追求する ことがコンピュータという道具のよりクリエイティブな使い道だと私は信 じている。

2.音をつくる

音というのは、空気の振動を耳が感知して知覚するといわれている。その 振動はコンピュータによって波形として表現され、その波形を編集し自然 音に似せて作ったりすることも可能であるが、自分で音色を作って行くほ うがより創造的であろう。今の時点のソフトウェアシンセでもほぼ制限の 無い自由な音色の制作が可能である。したがって、その合成過程や選択は 作者の楽曲にあわせて作者自身が試行錯誤し生み出していくことになる。

3.楽器としてのコンピュータ

こうした音源としてのコンピュータだけでなく、この音源で演奏すること ができるようになってきている。それは単に音を配置して再生するシーケ ンサとしてではなく、リアルタイムで奏者がコントロールする楽器として である。そうなると大切になってくるのはインターフェースの問題である。 あるパラメータを上下するくらいならマウスでドラッグすることで足りる が、それを複数同時に、また、大きな動きから微妙なタッチまでコントロ ールするにはほかの新たなデバイスが必要になってくる。ここでも従来の 楽器を真似る必要はなく、全く新しいデバイスを考案する方がより創造的 で、音楽の可能性を広げるものであろう。

4.テクノミュージックの未来形

先日、新宿のICC(INTERCOMMUNICATION CENTER)で行われた「mego@ICC テク ノミュージックの未来形」と題されたシンポジウム、及びコンサートへ行 ってきた。megoは、オーストリア、ウィーンに本拠を置く"テクノ"・レー ベルである。比較的新しいレーベルでありながら、彼らはこの数年、世界 各地のサウンド/アート系の名だたるフェスティバルを荒らしまわっている。 彼らは演奏にパワーブックしか使用せず、その音響はダンス・ミュージッ クとしての電子音楽、ニュー・ミュージックとしての電子音楽、ノイズ/ エクスペリメンタル・ミュージックとしての電子音楽、そのすべての、あく ことのない解体と混交である。彼らは自らソフトウェアも作成している。 シンポジウムでの質疑で見えてくるのは、各人の音楽的バックグラウンド をコンピュータを使って表現しているということだったと思う。それはと ても感覚的なもので、それ気持ちいいね、くらいなものが根底だというよ うに思えた。

5.おわりに

こうしてみると、コンピュータミュージックはその自由度の膨大さから、 とてもつかみにくいものになっている。その傾向は今後ますます強まり、 多種多様な音響が世界各地で鳴り出すことだろう。


コンピュータミュージック言語について

概要

音楽が生成される過程を記すことにより作曲することを、アルゴリズム 作曲という。アルゴリズム作曲を実現するために、様々なコンピュータミ ュージック言語がある。言語をデザインする上で重要なことは、作曲の 思想やプロセスが制限を受けないということである。

1.はじめに

多くのコンピュータミュージック言語は、概念的にはスコアとオーケスト ラの2つの部分に分けられる。スコアとは音楽の構造を記述することで あり、オーケストラとはスコアが利用する音を生成することである。スコ アは最終的にノートリストすなわち楽譜を生成し、オーケストラがこれを 演奏する、というのが一般的といえる。これらの名称は、ほかに適当な 呼び方がないため伝統的な音楽からコンセプトを借用してはいるが、必 ずしも普通の意味で五線紙のスコアに書けるような音楽である必要は ない。というよりむしろ、コンピュータを用いることによって、伝統的なコン セプトの積極的な拡張を行うことが望ましい。またスコアは、単に音譜 を書き並べるだけでなく、コンピュータ言語が本来もっている力を利用し て作曲を行うことでもある。これをアルゴリズム作曲という。
オーケストラは、ユニットジェネレータを「積み木のブロック」として組み 合わせ、インストルメントを定義するセクションである。

2.オブジェクトの利用

コンピュータミュージックを作成するためには、様々なユニットジェネレ ータやフィルタなどが必要になるが、これらは実際にはLISPやC言語な どで書かれたプログラムであり、実行可能な形にコンパイルされてライ ブラリやオブジェクトを形成している。したがって、音楽を作ったり音響学 的な実験を行ったりする場合には、低レベルのプログラミングに煩わさ れずに、これらを部品(オブジェクト)としてつなぎ合わせ、必要な情報は パラメータとして与えられる。

3.様々なコンピュータミュージック言語

このような形態をもったプログラミング言語は、すでにいくつか開発され てきている。有名なものを以下に示す。
・ Music V(Max Mathews)
・ Music 11,C-sound(Barry Vercoe)
・ cmusic(F.R.Moore)
・ MAX(IRCAM)
・ Cmix(Paul Lansky)
・ Common Music,Common LISP Music(Stanford univ.)

4.言語のデザイン

言語をデザインする上で重要なのは、ユニットの性能によって作曲の発 想やプロセスが制限を受けないことである。つまり、作曲家のアイディア を自由に表現できる環境を、プログラミング言語が保障しているというこ とである。たとえば、どんなピアノの天才でもピアノを使う限りはオクター ブを任意のインターバルに分割したり、鍵盤から人間の声を出したりする ことができない。しかしコンピュータの場合には、このような限界があって はならない。また逆に、作曲家がプログラミング言語を学ぶことで、斬新 な着想や作曲の方法を獲得することもあり、双方向のコミュニケーション が大切である。

5.おわりに

かつてのコンピュータミュージック言語は、音楽専用にデザインされた 特殊なもので、FORTRANやC言語で書かれてはいても言語のもつパ ワーの利用には限界があった。しかし、最近ではプログラミング言語の 環境とパワーを完全に利用できるようになってきている。


コンピュータの性能向上とコンピュータミュージック

概要

コンピュータによる音処理の中で特にリアルタイム作曲についてのべる。

1.はじめに

近年のコンピュータの処理速度の向上はめざましいものがある。それに よってコンピューターミュージックの世界では一昔前まではコンピュータ の能力が低いためにできなかったことができるようになってきている。そ の代表的なものがリアルタイムでの音処理である。ここではそれらリアル タイムで処理される音楽について述べたい。

2.コンピュータのリアルタイム伴奏

リアルタイムでの音処理でまず思いつくのはコンピュータによる伴奏で ある。しかしコンピュータが伴奏をするにはいろんな問題点がある。 単なる伴奏ならリアルタイムである必要はないのだが人間の演奏に 応じて変化する伴奏となるとリアルタイムで行わなければいけない。しか も人間の演奏した曲にふさわしい伴奏をしなければいけない。しかしこれは 実現するのがかなり難しい。
そこで現在では音のテンポや強さを人間に依存し,伴奏する曲はあらかじ め用意するという形をとっている。しかしそれでもまだ問題は多い。例えば 人間は必ずしも楽譜どおりに演奏するとは限らない。人間が楽譜と違った 演奏をしたときにもコンピュータは続けて伴奏できるようにしなければいけ ない。また途中を飛ばして演奏したときは伴奏も途中を飛ばす必要がある。 そのためには人間の演奏情報を読み取って楽譜と照らし合わせて完全に一致 しなくても今どこを演奏中なのかを特定する必要がある。これを行うには コンピュータの処理速度が速くなければならない。

3.リアルタイム作曲

リアルタイム作曲は演奏するだけでなく曲自体をリアルタイムで作曲し ながら演奏する一種の即興音楽といえる。これが伴奏などともっとも違う のは楽譜というものが存在せず,その場で鳴らす音を決定するということ である。
リアルタイム作曲を行うにはいろいろな方法がある。音楽的に裏づけさ れたアルゴリズムを用いての作曲,センサで人間によって起こされたイベ ントを認識することによって行う作曲などがある。
前者はアルゴリズムをプログラムとして実現し,乱数を用いることで毎 回異なった演奏を聴くことができる。
後者は人間の動きをいろいろなセンサで認識し,その動きに合わせて音 を鳴らすというものである。当然人間の動きは毎回違うので同じ曲ができ ることはなく毎回異なった曲となる。

4.最後に

リアルタイムでの音処理は単時間あたりの計算量が非常に多いためコン ピュータの性能向上が欠かせない要素の一つである。逆にいうとコン ピュータの性能が今よりももっと向上すればより複雑なリアルタイム処理が できるようになる可能性がある。


コンピュータによる音楽の解析

概要

人間が普段何の苦労もなく聞いている「音楽」というものを、コ ンピュータに認識させるにはどうしたら良いかについてノンリアルタイ ムな音楽情報処理を中心に考えてみる。ノンリアルタイムな音楽情報処 理では、その中でも人間でいうところの「聴覚」的なものである「周波 数分析」について検討することとする。

1. はじめに

コンピュータに「音楽」を認識させると言われても、実際にはこんな 抽象的な言い回しでは良く分からない。そこで例えば、自分が自分の好 きなアーティストの曲の構成(コード進行や楽器の編成など)を知りた いと思い立ったときにどうするかを考えれば、自ずとその具体的な形が 見えてくるはずである。ここではその方法について考えたい。

2. 耳コピーから見た音楽解析

我々(著者)が既存の曲(録音されたもの)について、いわゆる「耳 コピー」をする場合、音楽の構成要素である、コード進行(ベース)、 リズム、メロディー、そして音色について調べる。コード進行を知りた いのならば、まずベースを調べ、そこから調を決定し調べる。それから リズムなどを調べる。いずれにしても調べたい対象の音色を知らなけれ ばならない。そこで考えるのが「音の3要素」である。「音の3要素」 とは、「音色(波形−スペクトル)」、「音の高さ−ピッチ(周波数)」、 「音量(振幅)」である。ここで注目したいのが、「音」は「波形」と 1対1に対応しているということであり、音を目で見るには波形を見れ ば良いということである。しかし、ここから「音楽」を解析できるかと 言えば、それは大変な苦労を要するのである。音色を見つけ、そのピッ チや音量を調べることは、人間にとっては割と容易なことであるが、コ ンピュータにとっては困難な壁が存在しているのである。それを以下で 考える。

3. 音源分離

音色を調べるためには、ごちゃごちゃに重なり合った音をひとつひと つ聞き分けねばならない。これを音源分離と呼ぶが、この「音の混在」 が、コンピュータによる音楽解析の最大の壁となっているのである。人 間は、この混ざり合った音の集まりを、いとも簡単に聞き分けることが 出来てしまう。しかし、この仕組みについては、未だ謎が多い。
コンピュータが音を判別するには、まず既存の録音データをA/Dコン バータにより波形としてコンピュータに取り込み、そこからそれを解析 する。しかし、ここで問題なのは「音の混在」である。音が混在してい るということは、取り込んだ波形同士も互いに干渉し合い、ひとつひと つの解析がしにくくなっているのである。これを改善するためにいろい ろな方法が考えられているが、未だ発展途上であり、十分に音源分離を 実現することは出来ていないのである。

4. ノンリアルタイムにおける音楽情報処理の実際

周波数分析においては、取り込んだ波形を、自己相関と呼ばれるもの などによって分析することが行われている。
スペクトル解析については、短時間フーリエ解析などの方法で、抽出 した波形をテンプレートの波形と比較して解析するといった手法が用い られている。
コード及び調性の認識は、主にマッチング手法によるものが多い。
いずれにしても、まだまだ課題が多いのが実際のところである。

5.リアルタイムな音楽情報処理

MIDIを使っていない演奏をリアルタイムで解析するには、コンピュ ータのパワーがかなり必要である。
現在では、ビートトラッキングによるビートの検出で、CGアニメー ションと音楽の同期などが実現されている。

6.おわりに

人間が、音楽を認識し、解析する具体的な構造は謎が多く、やはり感 性の成せる業としか現在においては言えない。コンピュータによる音楽 の解析も当然不完全な部分が多い。しかし私は、人間の未知なる部分が 解明されれば、コンピュータによる音楽情報科学も自ずと開ける気がし てならない。ひょっとすると、現在の考え方とは全然違う方法で実現さ れるかも知れない。それぐらい未だ分かっていない部分が多いというこ とである。それだけに、これからの発展が期待される課題である。


音声・音響信号処理

概要

コンピュータ技術の発展に伴い、様々な情報がディジタルのデータコードと して一元的に扱えるようになり、様々な分野における重要な技術としてマルチ メディア技術が位置づけられている。ここでは、音声・音響信号処理に着目し、 マルチメディアにおけるこれらの果たす役割とその中心になる技術を検討する。

1、はじめに

現在のように、マルチメディアが認知されてきた背景として、コンピュータ 技術の発展に伴い、音声・音響信号がパソコンやワークステーションに組み込 まれてきたことが挙げられる。これまでのパソコンやワークステーションなど と違う点として、音声や音楽といったサウンド機能や、CD−ROMドライブ などの機能が搭載されるようになったことが挙げられる。パソコンはFM音源 (注1)、PCM(pulse code modulation)音源(注2)を搭載し、高品質 で多くのサウンドを出力できるようになった。また、CDに記録されている音 声や音源情報も出力できるようになった。またサウンド機能は、画像などと同 期再生を可能にすることで、音で確認しながら操作が実行できるようになり、 ユーザにとってパソコンがとても使いやすいものとなり、ゲームなどでも高品 質な音が自由に、簡単に実現できるようになった。このようなサウンド機能に は、波形のカットアンドペーストなどの編集機能、圧縮信号の再生、各種音源 による楽音・楽器音再生、エコー処理、ピッチ変更、ノイズサプレッサなどの エフェクト機能などがある。以下では、音楽・楽器信号を合成手法により生成 する方法について検討する。
注1:音色の異なる複数の音源データをROMから読み出し、重ねあ合せるこ とにより、本物の楽器や音声に近似させる。
注2:本物の楽器信号をPCMディジタル録音し、再生する。サンプリング方 式とも呼ばれ、パソコン・ワークステーションに使われている。

2、音声信号の合成

㈰音声信号の合成の役割
マルチメディアにおける音声入出力技術の役割として、使いやすいマシンイ ンタフェース実現が挙げられる。例えば、音声合成によって、画像の説明や、 テキストデータを音声に変換することが可能となる。また、音声認識によって 音声とシステムとの対話が可能となる。
㈪音声信号合成の方法
・波形編集合成法
自然音声波形から波形そのもの、または音声から切り出された自然素片を、前 後韻律的情報などとともに切り出し、これを編集して波形辞書を作り、これか ら音声を再生する。
・ターミナルアナログ方式
音声の生成過程を模擬して音声合成を行う方式である。
・分析合成法
LPC、PARCOR方式、LSP方式など
㈫音声信号合成の活用性
音声信号合成には、分析合成法が主に用いられていたが、この方法は、記録 容量が少ないという長所がある反面、自然性に欠けていた。そのため、最近で は波形合成、素材編集などで自然な音声を繕うとする動きが多い。
以下に音声信号合成が活用されている例を挙げる。
・ビル管理、監視システム
・CD−ROMなどの百科事典
・電子手帳
・駐車場の精算所

3、楽器信号の合成

㈰楽器信号
音源としては、人間が発生する声・楽器の音・シンセサイザーから人工的に 作り出した電気信号による楽器信号波形などがある。これらは最終的には空気 の振動を作り音として人間の耳に入ってくる。つまり、音楽信号とは音の集合 である。音には、楽器の音や人間の発生する声、または、シンセサイザーに代 表されるように、人工的に電気信号を作る電子楽器がある。これらの音源は、 最終的に電気信号を作る粗密波からなる音波、時間的に制御しながら人間の感 性に訴える音、そして楽器信号を作り出す。また、音源には3要素が定義され ており、それは音程・音色・音量である。これらの基本要素をいかに自然に近 い形で発生させ、制御するかによって電気的に楽器信号を合成することができ る。
㈪楽器信号の生成方法
楽器信号を生成するには、上で述べたように音程・音色・音量の3要素に注 目し、この時間管理を的確に類推して波形を合成する。
・アナログ方式
シンセサイザの歴史は、1965年、R・ムーグのVCO(電圧制御発信器 )による合成法からスタートした。この頃は、まだ、一つの音しか同時に発生 することができないシンセサイザであった。その後、EG方式が開発され、音 の3要素を時間的に変化させて合成することができるようになった。
・ディジタルFM方式
マイクロプロセッサの登場により、シンセサイザはアナログからディジタル へ変わっていった。このディジタル信号処理技術によって、コンピュータで作 ったサイン波が、他のサイン波による変調の割合によって多くの様々倍音を得 ることができるようになった。この方式により、無数の組み合わせが可能とな った。
㈫MIDI
・MIDI
電子楽器をベースとして、電子楽器相互間、電子楽器とコンピュータとを接 続して音楽の演奏情報を実時間で伝送することを目的(I等ぢしたプロトコル規格。
・コンセプト
少ない情報で音楽を表現するのに必要なパラメータを伝送し、制御できるよ うにそのプロトコル構造を規格
・成果
MIDIを使うことにより、電子楽器による楽音生成と、そのマルチ音源利 用による音楽制作がコンピュータで容易に実現することが可能となる。

4、おわりに

音声と音響信号処理について述べてきたが、CDに代表されるようなディジ タルオーディオ信号は、信号処理や伝送に際して、信号のビット長を十分に確 保すれば、ひずみやSN比などの信号品質の驥(Iサ宸タがほとんどなく、高品質信号 が維持でき、音質が極めて重要となるオーディオシステムにとっては最適であ る。また、ネットワークメディアとしての信号伝送にも手軽に使うことができ る。ディジタル信号がマルチメディアとしても問題なく利用できる理由は、デ ィジタル信号は、記録再生・伝送に際してその範囲を明確にしておけば他の信 号と混在しても扱うことができるからである。このようにメディアのディジタ ル化が進むことによって、扱いや処理が簡単になり映像・音声・文字・図形・ コンピュータソフトなどのマルチメデBア情報の記録再生伝送が、容易に実現 できるようになった。


コンピュータと人間のセッション演奏

概要

コンピュータと人間のセッション演奏について、講義の中で触れて いたが、その中で特に印象に残った、コンピュータと人間のリアルタ イムでのパターンマッチングについて主に述べ、またコンピュータミ ュージックの可能性を述べる。

1はじめに

コンピュータとのセッション演奏において、その難しさ、またそれに よるコンピュータミュージックの新しい可能性を、音像メディア論講義 、また音楽情報科学の世界を参考に自分なりに考える。

2コンピュータとのセッション演奏

コンピュータとの演奏といっても、その形は様々である。例えば、コ ンピュータにあらかじめ曲のデータを知らせ、その曲を人間も一緒に演 奏する。などという演奏形態も、一つのセッション演奏であるが、コン ピュータミュージックと呼ぶにふさわしくするには、リアルタイムにコ ンピュータと人間が曲を作り出すようなものであると考える。

3リアルタイムでのパターンマッチング

コンピュータとのパターンマッチングにおいて、あらかじめいくつか のパターンをコンピュータに覚えさせてき、それをもとに人間の演奏に あったパターンをコンピュータが生成していく。という方法がある。し かし、人間が演奏してからコンピュータがパターンを認知し、演奏して いくと、人間とコンピュータとの演奏に遅れが出てしまう。また、人間 が突然演奏を変えたり、速さを変えたり、また間違えて演奏してしまう と、コンピュータと人間の演奏に違いができてしまう。そこで、コンピ ュータはあらかじめ次の演奏を予測し、人間の演奏に対し柔軟に対応し ていかなければならない。とは言っても、人間同士でも、突然の変化に は対処が難しい。目やジェスチャーなどのコンタクトをとるように、コ ンピュータにも何らかの情報を与える必要がある。人間との意志の疎通 は難しいが、人間とコンピュータとの同時演奏は講義でもあったピアノ 演奏のように、実現している。

4これからの可能性

「音楽情報科学の世界」でニューロドラマーが取り上げられていた。こ れは、人間のドラマーが与えたリズムに対し、ニューロドラマーが返す といったシステムであった。これでも言えることだが、必ずしも人間が 予測した通りのリズムが返ってくるとは限らない。つまり、コンピュー タが独自に生成したものが返ってくるのである。この様に、コンピュー タと人間とのセッション演奏において、コンピュータが独自に作り出す 音楽と演奏すれば、コンピュータの存在が、これまでの人間の代わりで はなくなり、コンピュータだから演奏できる音楽が新たに生まれてくる 。すでにMAXなどで実現されていると考えるが、コンピュータの自動 演奏と人間とのセッション演奏は、より意味を持ったものになると考え る。

5終わりに

コンピュータとのセッション演奏は、指揮と演奏者との立場にもなっ ている。また、コンピュータミュージックによる新しい音、またはリズ ムとそれらを組み合わせれば、全く新しいオーケストラなどが実現する 。未来には、作曲者がコンピュータなどという歌、曲もでてくるのでは ないか。ここではコンピュータとのセッション演奏について、またコン ピュータミュージックについて、簡単ではあるが、自分なりに考えた。


コンピュータミュージック

概要

コンピュータミュージックが受け入れられてきたここ数年と,講義を受けた後 での再認識を踏まえた上での自分の考えを述べる。特に"音"を中心とした考察 をいれ,今後の自分の音楽への接し方とコンピュータミュージックについて考 察する。

1.はじめに

コンピュータミュージックというのは,すでにいちジャンルとして確立された ものだと感じていた。現代的な,自然音でなく電子音を基調とした音楽−それ は実に洗練されたものであるという観念を自分の中に作り出した。 ところがそれはコンピュータミュージックの中のほんの一部であることを知る。 それによってまたコンピュータミュージックに対する見解,考えが変わってき た。

2.コンピュータミュージック

以前まで"電子音楽",いわゆるコンピュータミュージックというものに対する イメージは,あまり自然な音でないため「冷たい音」であった。人間味を帯び ていない,受け入れられない分野だという否定的な考えも持っていた。しかし ,日常聞き慣れていない音を織り成して作り出す音楽は,その反面,非常に興 味深いものでもあった。
最近では日本の音楽界でも,コンピュータミュージックをバックに組み込んだ 曲を作るミュージシャンも増えてきたため,電子音−機械的な音−を耳にする 機会が増えてきた。また種類は違うが,ゲームミュージックなども今では生活 の中に定着している状態となってきた。そのため非日常的な音という印象は変 わってきた。
日本の音楽におけるコンピュータミュージックの印象は,「格好いい」という のが少なからずあると感じている。曲の流れ,雰囲気を計算して音を作りだし ,一分のミスのない演奏で聞かせてくれる。その計算し尽くされた音楽は美し く,それこそがコンピュータミュージックだと思っていた。

3.電子音

ところが音像メディア論の講義の中で,コンピュータミュージックとして作ら れた曲を聴いてみると,まったくこれまでと違う感じの,と言うより初めて聴 く種類の曲であった。正直言って音楽であることに疑問を抱いた。ある音を基 本としてそこから加工してつなぎ合わせたような音楽は,自分にとって不協和 音でしかなかった。
しかし,考えてみるとそれが一番単純で純粋なコンピュータミュージックとい うものなのだろう。すでにある音を使うのでなく,ある音を加工して音を作り 出すといった作業をコンピュータにさせて,最後に音をつなぎ合わせて曲を作 るということが。
とはいうものの,加工された電子音は最初に述べたように自然な音でなく,自 分にとってはノイズのような,聴くにたえない音の集団にしか感じ得なかった。 しかしある感性を持って聴いてみるとそれがひとつのリズムを刻んで音楽とし て聴こえてくるので不思議である。

4.音楽

自分にとって音楽と言うのは,字の如く音を楽しむ(あるいは,音で遊ぶ)も のであって,いくらリズムがとれていても不快な音の集まりとしか聞こえない ようなものは,極端に言うと音楽として見なせない。特に原音が1つだけの場 合だと単調で,楽しめるとは思わない。
しかしこれは聴く立場に立っているだけの場合で,恐らく自分でコンピュータ ミュージックを作ろうということになると,最初はそういった"音の加工"だけ で楽しんでしまうだろう。聴く側の音楽と作る側の音楽の定義が違うのは矛盾 しているが,作る楽しさというのは経験してみないことにはわからない。今後 の課題はそこにあるだろう。

5.おわりに

コンピュータミュージックというものについて,多少否定的な部分も書いたが, 音楽という大きな枠で捉えるとやはりそれは音楽であって,作る側も聴く側も 楽しめるものである。今後もコンピュータミュージックは大きく発展していく と思われるが,誰もが楽しめるものとなるように期待したい。


シンセサイザーによる芸術的な演奏法の追求

概要
なぜシンセサイザーによる演奏は無機的だという評価されるの か、また芸術的な演奏とはどのような条件を含んでいるのかと いったことについて調べてみました。

最近の音楽番組などを見ていると、歌い手のみがステージに立ち、 演奏者の代わりにダンサーを起用している歌手が目立つということに 気が付きます。私はそういう人達はあらかじめ伴奏を録音し、それを 本番で流しながら歌っていると思っていました。しかし実際はそれだ けではなくて、シンセサイザーにMIDI形式のデータを与えて演奏し ている場合もあるそうです。しかしその音楽を聴いていると、ブラウ ン管を通しているせいなのか、他の生演奏の番組とあまり違いがない ような気がします。また作曲家の中には、コンピュータを用いて作曲 から編曲、そして演奏までを一人でこなしている人もいるそうです。 よく父が「オーケストラはアナログのレコード盤で聞くのがいい」と 言っていたのを思い出しますが、音楽(特に芸術的な面で)をディジ タル的に扱うことは可能なのでしょうか。そこで、シンセサイザーに ついて述べている本に注目してみました。
先ほど触れた通り、シンセサイザーに与える演奏情報はMIDI形式 のデータを用いています。MIDIとはMusical Instrument Digital Interfaceの略で、 音の波形やタイミング,周波数,強さといった演 奏情報を、規格化されたディジタル信号によって受け渡しする世界共 通のインターフェイスです。そしてこの規格化されたディジタル信号 のことを、MIDI形式のデータと呼びます。MIDI の特長としてシー ケンサーと呼ばれるソフトによってシンセサイザーにMIDI形式のデ ータを与えれば、それぞれの楽器の奏法をマスターしていなくても、 簡単に様々な楽器の音で演奏できるという点が挙げられます。 また、リズムに関しては現在の生演奏ではとても実現できないような 速さで演奏することを可能にしました。
いい事尽くめのようですが問題点もあります。それはシンセサイザ ーから発生する音が「機械的」に聴こえることです。当初、シンセサ イザーは様々なパラメータを操作する事で色々な音色を作り出すとい う発想で開発されました。確かに様々な音色を作り出すことには成功 しましたが、いざ演奏となるとその音は単調で無機的だと感じられて しまいました。通常、楽器を演奏する場合は各倍音が基本周波数の整 数倍で演奏出来ているわけではなくて、少しずつですが“ずれ”が生 じています。また完全に一定の周波数,強さを保ってはおらず、不規 則な“ゆらぎ”を含んでいます。演奏家達はこの“ずれ”や“ゆらぎ” を意識的に取り入れることにより芸術的な演奏を可能にしています。 しかし、シンセサイザーではこの“ずれ”や“ゆらぎ”を再現できな かったため無機的な演奏と評価されてしまうのでした。ところがその 後、メモリの低価格化に伴い、シンセサイザーの様式に変化が起こり ました。従来のようにパラメータの変化によって音を合成するのでは なく、膨大な音データをシンセサイザーに記録し、その中から求める イメージに合った音を選択する方式にとって替わったのです。こうし て現在のシンセサイザーは膨大な音データを基に、より自然な演奏が 可能になりました。
私は実際にその音を耳にして吟味したことがないので、その差を明 確に意識することはありませんが、芸術性を追求するために“ずれ” や“ゆらぎ”を再現したいという意見は理解できます。問題はどのよ うな“ずれ”や“ゆらぎ”を用いれば芸術的な演奏だと認識できるの かという点でしょう。それは普遍的なものなのでしょうか。それとも 固体差のあるものなのでしょうか。芸術は科学的分析が非常に困難な 分野だと思います。この分野の鍵は、やはり“ずれ”や“ゆらぎ”を いかに適切に作り出すかにかかっていると思います。


コンピュータで音楽情報処理

概要

楽譜認識はもう研究としては成り立たなくなったが、 音像メディアという分野を学ぶのは今回の集中講義が初めてなので、 昔のことから調べてみた。

1.はじめに

コンピュータを使った,あるいは利用した音楽関係の技術には, 様々なものがあるが,現在最も広く利用されているのは,やはり, 演奏情報を中心とした処理技術になると思う。

2.コンピュータで音楽を扱う

音楽に限らず,どんな情報もコンピュータで扱うためには, それをコンピュータが理解できる形式で表現すること,コード化が必要になる。 例えば,演奏情報についてはMIDIという規格がある。 しかし,MIDIは電子楽器で音楽を演奏するために作成された規格なので, すべての音楽情報を表現することができるわけではなく, 自動演奏で区別できない,あるいは区別する必要がない情報は表すことができ ない。 MIDIでは楽譜に表現されている情報を全て表すことができないため, 楽譜情報を表現可能な音楽のコード化が必要となるが, 様々な規格の国際標準を定めているISOでの10年にも及ぶ議論の結果, 1995年に音楽記述言語の標準化案 SMDLが提案された。 この標準化案では音楽情報を,文書記述用のマークアップ言語, SGMLの応用として表記する。 MIDI規格が今日のデスクトップミュージックの普及に大きく寄与したように 楽譜情報の処理システムの発展のためには楽譜情報の記述言語が重要となるが SMDLの提案により,そのためのプラットフォームができたといえる。

3.音楽情報の処理

音楽情報を計算機で処理するためには, 処理したい音楽情報を計算機に入力することが必要となる。 楽譜情報の計算機への入力方法としては, キーボードや手書きにより入力する手動入力, 採譜と呼んでいる音響による入力, それから楽譜を光学的に読み取る楽譜自動読み取りによる方法がある。 手動による入力は,全て人手によるため,入力の手間が大変だが, 入力方法に熟練すればかなりの速度で入力が可能で,また,確実な方法だ。 音響による入力は,市販されている製品もあるが,音源に制約があり,また, 音価の規格化という問題がある。 楽譜情報を直接計算機に入力する方式としては, 最も直接的な光学的楽譜読み取りによる認識が一番望ましいと考えられる。 楽譜の自動読み取りの研究は,70年代から始まり、 研究が開始されてからつい最近までは,画像入力装置の制約, 計算機の処理能力の制約,などハードウェアの制約も大きかったのだが, 他に,記譜法の曖昧性,画像としての複雑さのために, 認識が技術的に難しいこともあり, 認識できる記号が音符や休符など主要な記号に限られていたり,また, あまり複雑な楽譜は認識できないなど,実用化は進まなかった。 楽譜には音符や臨時記号のような形状が一定していて出現場所も特定しやすい 記号とスラーやクレッシェンドのように 不定形で出現場所も特定し難い記号が混在している。 前者に属する記号は,単独では比較的認識は容易だが, 記号の密度が高くなると,記号同志の重なりや微妙な位置づれや ノイズの影響で記号の切り出しが難しくなり, 100%の認識率を得るのは容易ではない。

4.おわりに

コンピュータの高性能化によって、光学的楽譜認識の正確さが増し、 もうすぐ手動入力を超えるスピードと正確性で認識できるようになるだろう。 研究テーマとしてはもう成り立たなくなった。 そして、演奏と同時にリアルタイムに採譜する知的伴奏というテーマが出た。 コンピュータの進歩と音楽情報処理は密接な関係にあると言えるだろう。 いままで特に音楽という分野に興味がなかったのだが、 コンピュータを扱う情報学部にいるからには、 音楽は関係ないとは言えないのではないかと思う。


感性の遊離

概要   

人間は音楽を聴くことによってさまざまな感情を生むことができま す。人間と機械の違い、そのもっとも最たる部分は感性でしょう。 しかしマルチメディアの登場に伴い、その二つは統合されようとし ています。いったいその先には何があるのか、本稿ではそれについ て考えていこうと思います。 

1. はじめに

論理機械であるコンピュータと人間の感性がつながるということ はどういうことなのでしょうか。その第一ステップとしてコンピ ュータと身体とのマッチングを考え、つぎにコンピュータによっ て感性がねじ曲げられた例を紹介し、最後に感性情報処理につい て述べます。

2. 感性と機械

一口に「Computer Music」といっても、実にいろいろな種類 とアプローチがあります。そんな広大で深遠なComputer Music の世界で私が最も興味を持ったことは、「感性情報処理」による アプローチです。音楽と快感の関係を突き詰めていくと、どうし ても人間の感性に突き当たります。感性に直接訴えかけることに よって、音楽は心地よさを生むと思うからです。しかしその感性 とは一体どういった物なのでしょう。私にとって感性とはあいまい で理屈では手の届かないところにある気がします。そんな感覚の微 妙な肌触りともいえる感性と論理機械であるコンピュータとがつ ながるのでしょうか。その相対する二つの背後には、一体どんなも のが隠されているのでしょうか。

3.身体とのマッチング

「身体」と「機械」を結ぶのは「感覚」であり、広くいえば「感性」 です。LSDもパソコンも、脳の神秘的な構造をさぐる「サイバーな ツール」として捉えられてきました。1960年代から現代にいたる サイバー・カルチャーの信念は、脳の内側の領域に一歩踏み込むこと で、隠された潜在能力に光をあてることができるということです。「サ イバー・カルチャー」における「身体の」捉えかたには「理性」中心 の見方が根を張っています。合理的、効率的を重視するため、手足や 脳はただの物質で、脳の情報システムが思考活動の実体だといった意 見が幅をきかせています。しかし、はたしてそれは正しいことなので しょうか。脳もふくめて身体全部を合理的な分析対象とするのは、確 かに近代知の方向としては正しいと思います。しかしマルチメディア で問題にしなければならないのは、むしろ環境世界と一体化した、身 体全体のダイナミズムではないでしょうか。身体があってその一部と しての脳があるわけで、逆ではないと思います。脳自体は、身体の通 信制御を統括する、単なるセンターにすぎないと思うからです。

4.サイバー娯楽空間の魔力

インターネットの世界で「MUD」という有名な、集団ロール・プ レイング・ゲームがあります。80年代にイギリスの大学のコンピ ュータ上でのゲームから始まって、今プレイヤー数は二万人を超え るといわれています。MUDというのはひとつの想像世界です。プ レイヤーはそこでさまざまな役を演じながら、プレイヤー同士の対 話を通じて、複雑なドラマのストーリーを織り上げていくことにな ります。興味深いことに、MUDプレイヤーの中には、寝食を忘れ てゲームにすっかりのめり込んでしまう、中毒者が少なくありませ ん。起きているあいだじゅう、パソコンに向かっているというプレ イヤーさえいるのです。その理由は双方向性・対話性の魅力という ことよりむしろ、昔ながらの「変身願望」といえると思います。誰 でも自分の現実の姿から逃げ出し、別の自分になって行動してみた いという根強い願望をもっていると思うからです。なぜならそこに は限りない自由があるからです。さまざまな姿にめまぐるしく変身 しながら、サイバースペースの中を駆け巡るということに、インタ ーネットの大きな魅力があることは否定できません。けれども、下 手をすると落とし穴にはまり、自分を失ってしまう恐れがあること も事実だと思います。変身という高級な遊びを楽しむためには、し っかり自分自身を把握する力もっていなくてはならないと思いま す。さもないと、ただ逃避するだけになってしまうと思うからです。 一番困ることはサイバー・スペースでは有限な人間の感覚が薄れて いってしまうことだと思います。何にでもなれて、死んでも生き返 ることができるということは、そういうことだと思います。電子メ ディアは人間の情報処理・情報伝達・情報蓄積の能力を恐ろしく高 めますが、情報のあらわす「意味内容」とは有限な肉体があるから こそ出現すると思います。けっして技術の高度化だけを追い求めて 人間と技術の間に大きな隔たりを築いてはならないと思うのです。 脳の神経と電子回路を直接結んでしまい、本来の身体性を見失って しまうと人間はサイボーグになってしまいます。有限な肉体の感覚 がなくなると、欲望も無限に増幅していくでしょう。そこには本当 に正しい理性を持った人間が存在しているのでしょうか。技術の進 歩と人間との感性を遊離させてはならないのです。

5.感性情報処理

「感性情報処理」と言いながら、感性をいかに活性化するかという よりも、感覚情報の数値化に力点が置かれたりします。たとえば芸 術作品を統計処理するといった類いです。ピカソやダリもモーツァ ルトもベートーベンも、作品の特徴を数値化することはできるでし ょう。しかし、数値データから傑作が生まれるわけではないと思い ます。長嶋先生が音楽情報科学の世界で述べているように、「感性 情報処理」のアプローチはまだまだ先が見えないでしょう。それだ からこそ研究者としてはたまらない宝庫なのです。

6.おわりに

Computer Music研究に関連して感性について考えてきました。いろ いろ他の事も考えたのですが、なかなか参考文献が見つからず、見つ かっても長嶋先生に頂いたプリントの方が内容が濃いため、何を書い ても付け焼き刃のような気がして書く自信が湧きませんでした。そこ で自分の中ですこしでも知っている領域に絡めて書きました。


コンピューターによる自動伴奏システム

概要

集中講義中にでてきた自動伴奏システムについて配布された資料、webサイトな どを参考にまとめたもの。授業の内容に自調べたもの、考えたものを加えた。

1.はじめに

伴奏システムに至るまでのコンピューターミュージックの流れから見てみよう。 はじめはコンサートホールなどでテープを再生し、聴衆は客席に座ってただその 音楽を聞くだけのテープミュージックと呼ばれるものだった。その当時は高速な コンピューターや音響設備が存在しなかったためホールでリアルタイムにたくさ んの音を合成して鳴らすことは不可能だった。それでコンサート前にコンピュー ターで合成した音素材をテープに何度も多重録音して最終的な音楽作品として発 表していた。
しかしそのうち演奏家の生演奏が欲しいという欲求が出てきてコンピューター で作ったテープ音楽を伴奏に、演奏家が生でアコースティック楽器を演奏すると いうスタイルが生まれた。
これは現在でもコンピューターミュージックの主流の一つとなっているのだが、 このスタイルは人がコンピュータに合わせるのであり、コンピューター主体であ る。これを人間を主体としてスタイルにしようという動きが出てきた。つまり、 人間の演奏者の演奏に合わせてコンピュータの演奏を制御できる、リアルタイム インタラクティブミュージックという形態がうまれたのだ。ここでは、この「人 間にあわせる」という技術を研究する「伴奏システム」について紹介する。

2.伴奏システムとは

伴奏者には、あらかじめ楽譜が与えられている。その楽譜には、自分が演奏す べき伴奏パート以外に、独奏者のパートも並べて記述されている。一方、独奏者 の楽譜には伴奏パートが記述されていない。このことから伺えるように、独奏者 は自分勝手に演奏し、伴奏者は独奏者の演奏を聴きながら、その演奏にぴったり とあわせて一所懸命演奏しなければならないかのようである。事実、独奏者の癖 や性格までも考慮に入れて演奏しなければならないのである。
このように、非常に重要かつ困難な仕事である伴奏者の役割をコンピュータで 実現しようとする試みが伴奏システムである。
コンピュータ音楽の研究において、その対象とする音楽ジャンルにより、シス テムの構成や研究テーマなどは大きく異なってくる。伴奏システムでは、その対 象となる音楽は、通常、西洋クラシック音楽であるが、ポップスや歌謡曲を対象 としたものもある。しかし、同じようなシテムでも、ジャズを対象としたものは 「ジャムセッションシステム」と呼ばれ、全く異なる研究テーマとなってしまう。

3.伴奏システムの概要

伴奏システムは独奏者に合わせるシステムであるが、現段階では、独奏者の時 間的な変化(テンポ変化)に追従することが主な仕事である。楽譜における独奏 者の関係から、伴奏システムがどのように演奏すべきかが決定される。その関係 は、1.独奏者と同じタイミングで演奏 2.独奏者の音符の一部と同じタイミング で演奏 3.独奏者の音符のないところでも演奏 の3種類のパターンが考えられる。
楽譜に関しても、人間の伴奏者同様、人間の伴奏者同様、独奏者の楽譜と伴奏 者の楽譜の両方をあらかじめシステムに与えておく。もし、紙に印刷された五線 譜を渡して、それをコンピュータが解釈することができれば、人間と同じ領域ま で到達するが、楽譜を理解する能力は伴奏システム研究の範囲を超えているので、 伴奏システムの研究では、楽譜はコンピュータにとって簡単に理解できるデータ として与えられるものとする。
独奏者の演奏入力にはいくつかの方法がある。まず、その1つは、独奏者の演 奏がMIDI信号として入力されるか、それとも実際の音を拾ったマイクからの信号 であるかの違いである。当然のことながら、後者の方が難しい。もう1つの選択 肢は、独奏者の演奏する楽器がモノフォニック(同時に1つの音しか発音できな い)か、ポリフォニック(同時に複数の音を発音できる)かということである。 これも後者の方が難しい。
通常、伴奏システムはMIDI信号を出力するが、実際の発音を市販のMIDI音源で 行うか、MIDI駆動のピアノで演奏を行うかによっても異なる。後者では、発音時 間の遅延が非常に大きいため、処理はより困難になる。
伴奏システムの処理は、次の段階で行われる。
1.入力信号の前処理
独奏者の演奏がMIDI信号として入力される場合には、独奏者がどの音をいつ鳴 らしたかという情報を直接得ることができるが、マイクで拾った音響信号が入力 の場合には、独奏者がどの音をいつ鳴らしたかについて調べる必要がある。
2.独奏者の演奏追跡
前処理により独奏者がどの音をいつ鳴らしたかという情報を得ることができる。 それぞれの音をイベントと呼ぶことにする。それらのイベントが必ずしも、演奏 ミスすることなく進むとは限らないので、そのようなミスやピッチ認識のエラー にも対応も必要になる。
3.伴奏パートの演奏スケジューリング
独奏者の演奏が楽譜のどこを演奏しているかが分かれば、今、独奏者は楽譜上 のどこにいて、どの程度のテンポで演奏しているのかを推測できる。その情報を 元に、独奏者の演奏と調和するように伴奏の演奏タイミングをスケジューリング する。スケジューリングするのは、各イベントをいつ発音すべきか、ということ である。
4.伴奏パートの演奏出力
スケジューリングされた伴奏の演奏を実際にMIDI信号として出力する。市販の MIDI音源で鳴らす場合には問題ないが、MIDI駆動のピアノで演奏を行う場合には、 その遅延を考慮する必要がある。

4.おわりに

自動伴奏システムの概要は以上のようなものだが、どんなシステムでも事前に 行うリハーサルがきわめて重要だいうのが、多くの研究から示唆的にわかってき ている。標準的に用意してある音楽モデルに対して、人間の演奏者の持っている これに対応したりアクションを返すことで人間の演奏家はかなりストレスの少な いセッションに臨める。このテーマはまだまだ発展段階でこれからも更なる発展 が期待できるだろう。


電子楽器の発達

概要

現在の音楽産業を大きく変化させ、半導体の低価格化によって大衆 化した電子楽器。その電子楽器が生まれてきた背景、機能、それに用 いられたその時代において電子楽器に搭載された最先端技術を楽器ご とに説明した。

始めに

講義の中でテルミン、ミブリ、グローブを手にはめて演奏する装置、 ダンスにあわせて演奏する装置等いくつかの電子楽器が紹介された。 電子楽器は約90年前から何種類も作られてきた。これから代表的な ものを種類ごとにその機能や特徴を述べていく。

草創期の電子楽器

テルハーモニウム
1906年、サデュースヒカルによってつくられた人類最初の電子楽器。 巨大な発電機を何台もならべた巨大なもので重さは200トンもあった。
テルミン
1920年、ロシアのレオン・テルミンによって作られた。角の出た装置 に手を近づけたり、離したりして発振周波数をかえて演奏した。ヒュー ヒューとした音が出たが正しい演奏は至難だった。この楽器は1993年 にビッグプライヤー社によって新しく発売された。音は弦楽器か人の声 に近い。上手に演奏すればすばらしい表現ができ、手で演奏する姿は 神秘的である。
オンドマルトゥノ
1928年フランスのモーリスマルトゥノによって作られた。 初期の製品 には鍵盤はなくワイヤのついた指輪に指を通して演奏したい音階の位置に 移動して音程をきめて演奏した。単音だが非常に澄んだ音がする。

電子オルガン

ハモンドオルガン
1929年にアメリカのローレンスハモンドによって発明された。91 個のトーンホイールという歯車の周囲を波形にして、電磁石のピック アップで波形を検出し音にした。
日本の電子オルガン
1952頃から研究が始まる。真空管式のものをへて1959年オールト ランジスタのエレクトーンD-1が発売される。当時はまだトランジ スタは安定性が悪かったがあえて使用することによって小型化、低価 格化が可能になり一般家庭に普及。
1970年には本格的なステージモデルが発売され、1974年さらに大 規模なものが発売される。最高の電子オルガンを作るためには最高の LSIが必要になってきた。
1970年中頃からオールデジタル方式であるFM音源の開発が始まっ た。良い音が出るのに加えてタッチコントロールに適していて、演奏 者の気持ちを表現できるようになった。このFM音源を搭載したモ デルが1983年に発売される。FAMシステム、タッチコントロール、 レジストレーションメモリーといった機能によってすばらしい表現が 可能になった。

電気、電子ピアノ

1928年に電気ピアノは発明され、1970年中頃から電子化されていっ た。電子化されると音色の幅が飛躍的に広がる、調律が不要、ヘッド フォンが使える、小型軽量化が可能になり値段が安くなるという長所 がうまれる。
1985年に自動伴奏、自動演奏を搭載したものが発売される。これに よって弾いて楽しむだけでなく、聞いても楽しめるようになりみんな で楽しめる楽器になった。 最近の電子ピアノはタッチ感もよくなった。音源方式はほとんど PCMである。性能の向上した電子ピアノは電子楽器不調の中でも よく売れた。

シンセサイザー

1952年、今日のシンセサイザーの元祖となるRCAシンセサイザー が発表される。RCAビクターのHオルソンがコロンビア大学に 設置した研究用装置で、音を電子的に合成し、自動演奏や多重演奏が できるという音楽制作機能を備えていた。さらに作曲するのにするの にもっと能率の良いものが要求され発達していった。またシンセサイ ザーでなければできない曲も構築され、その後の音楽に大きな影響を あたえた。
日本では1973年にシンセサイザーの集合体のような製品を試作した。 これには合計35個のシンセサイザーが内蔵されていた。 そして1983年シンセサイザーの歴史的商品DX-7が発売される。驚 異的なコストパフォーマンス持った楽器で、高品質なFM音源とタッ チコントロールを備え、最先端機能として液晶表示によるセッティン グ、MIDIを搭載していた。商業音楽にも瞬く間に広がっていきDX-7 の音が聞こえないレコードはないくらいだった。そしてアマチュアに よるシンセサイザー音楽の流行をうみだした。
現在のシンセサイザーは音色部、シーケンサー部、ディスクドライブ 部、インターフェース部、オーディオ部から構成され、液晶画面を使っ て音色を編集する部分、データをディスクに保管する部分が高機能化さ れている。
また1994年アコースティック楽器に匹敵する独自な楽器を目指して開 発されたVA音源を搭載したシンセサイザーを発売した。VA音源は現在 では一般にわかりやすいようにサックスなどのリアルな音を表現している が、次第にこれまでにないような音に注目されることになり、VAシンセ サイザーが新しい楽器として世の中に認められるといわれている。

新しい演奏形態の楽器

1993年ヤマハはまったく新しい演奏形態の楽器「みぶり」を発表した。こ れは従来の楽器とは奏法がまったく異なっており、楽器と体が一体化し、 音程、音色、音色、音量を別々にコントロールして演奏する。 鍵盤は音がすぐに出る便利なそうちだが、ステージ上で見栄えがせず、音 楽の表現力に欠けていた。そういう理由から体を大きく動かして演奏する 発想がうまれた。これならば気持ちを込めた演奏が見ている人にも伝わる。

終わりに

電子楽器はその時代の最先端のハイテク技術が応用されて開発されてきた。 それらの技術を用いることによって楽器がただ演奏することだけではなく、 音の合成、作曲、編曲、自動伴奏、自動演奏と非常に多くの役割をになう ようになった。
電子楽器の課題というのは表現力であった。それもデジタルの発達によっ てタッチコントロールなどの方法によっていくらかできるようになった。 しかし電子楽器はまだピアノやバイオリンの物まねといった部分もある。 これからは電子楽器独自の世界を築いていくことも必要であるだろう。


カオスの生成する音楽

概要

コンピュータミュージックにおけるカオスの利用、不規則性の持つ面白さ

1.カオスの持つ性質

カオス現象は、非線型、回帰的、反復的な系において現れるものであり、 コンピューター上では、さらに離散的という条件が加わる。本来アナログ 的である自然現象におけるカオス性を検証する場合、必要な精度まで離散 化・量子化することで、ディジタル的に処理することができる。
カオスの周期的動作の領域は、倍周期分岐の領域であり、繰り返し乗算の ための定数である乗算パラメータの増大とともに、2、4、8と増えていく。 また、乗算パラメータをある一定の値にすると値が、3、5、7、11、13と、 素数値に分岐する領域が発生する。

2.アルゴリズム作曲

コンピュータで作曲する方法の一つに、演奏される音楽情報そのものは記 述せず、音楽を生成していくアルゴリズムを記述して作曲する方法がある。 これは、ソフトウェアによってはじめて世界が構築されるというコンピュ ータ科学の領域の発想で、コンピュータができたころから始まっている。

3.MAXの利用

アルゴリズム作曲のための支援環境として、MAXがある。MAXは、現在世界 中の音楽愛好家が利用しているマッキントッシュの環境である。このMAXが 扱う音楽情報は、国際的スタンダードであるMIDI情報である。このMAXは、 自分で音楽情報処理のアルゴリズムをプログラムするためのプログラミン グ環境なのである。誰でも簡単に複雑なアルゴリズムが記述できるMAXは、 MIDI情報だけではなく、いろんな制御装置をして使われている。

4.カオスの利用

アルゴリズム作曲の中にカオスの要素を取り入れたらどうなるか。 このアルゴリズム作曲に、乱数を用いて偶然性を出したり、演奏時の人間 の働きかけで、演奏するたびに違った音楽になる、まったく同じ音楽は二 度と無い、というリアルタイム作曲の特徴を持った音楽になる。また、二 つのカオスジェネレータが相互作用するようにすれば、また違ったランダ ムの値をとるようになり、お互いがお互いに影響するようになる。また、 素数値に収束する値も利用できる。カオスを用いることで、でたらめでも なく、ランダムでもなく、規則的でもない音楽が生まれる。

5.コンピュータミュージック

コンピュータが生成する音楽は、その性格から規則正しい機械の作る音楽 だと考えてしまうが、このようにカオスを利用するだけで、その場限りの 二つと無い音楽を作ることができる。コンピュータで音楽を作ることは、 無限に可能性を秘めている。


コンピューターの作る音楽

概要

コンピューターによって、作り出される音楽とは、どこ まで人間が作り出す音楽に近いものにできるのか?また、 人間が作り出す音楽とはどのような特徴があるのかなどについて考える。

1.はじめに

今回の授業の中で,コンピューターによる”ランダム演奏”や、”自動伴奏 システム”などについて取り上げられる部分があった。その話を聞いているとき, それらが作り出す音楽とは、僕たちが普段聞いているような音楽にどこまで近い ものができるのだろうか?という考えが浮かんだ。ランダム演奏などは,僕たち にはとうてい親しみのない音楽であったし、自動伴奏システムにしろ,それはた だ音を合わせているだけであって、それ自身には音楽の面白味というものがかけ ているのではないか。(ここで言う“音を合わせている”“面白味”というもの の意味は後述する)まず、論点をここに置くことにする。

2. 調査

藤原さん(参考文献の著者)は、オーケストラなどの演奏者として スタートし、その後、指揮者もするようになったそうだが、その中で彼なりの “音楽をきれいなものにする法則”というものを発見している。それは、
1. 「リズムは強弱の周期ではない」
2. 「指定がない限り第一拍は強く引かない」
3. 「第一拍はフレーズの終わり」
4. 「第一拍で終わったフレーズから次の音にはすぐ入らない」
5. 「エキサイトすると早くなりがちになる」
6. 「休符は休む記号ではない」
7. 「スタッカートは短く切ることではなく素早い音量の減衰」
……。
などといろいろまだ続く。(ここでは紹介しないことにする。)
これらのものが、人間らしい音楽に結びつくように思える。
また、藤原さん曰く、「そもそもコンサートの意味は「一致、調和、共同、 協力」であり演奏者と聞き手や共演者が一体となって作り上げる音楽であり、観 衆はそんな雰囲気の中で五感を通して聞いている。そして音楽には“強い音” “弱い音”が存在して初めて、音楽になる。強い音も弱い音があるから強い音と して聞かれ、その逆も言える。そこには相対的な関係がある。テンポについても 同じようなことが考えられ、常にメトロノームにあわせる一定のリズムの音楽で は幅がない。その状況に応じたものが必要になってくるものである」これらもま た、人間らしい音楽に結びつくのではないだろうか。

3.検討

上記のようなことが、書かれていたわけだが、まず彼が見つけた法則につい て考えてみる。2などはコンピュータにデータとして与えることができるものであ るのではないか、「指定がないか切りしてはいけない」トイものは、コンピュー タが最も得意としているところであるからだ。しかし5、6、7のあたりのものは、状 況、雰囲気、回りの演奏者との呼吸などによって微妙に変化するものであり答え がないのではないだろうか。このようなものはコンピュータに可能なのであろう か。このあたりのものを実装するためには、音楽的流れ、音楽の質回りの演奏者 の音の出し方などの情報を取り込み、それらの状況を把握しその場で一番よいと 思われる演奏に持っていく事が必要になるのである。このあたりのことこそ人間 らしい、人間による“感情”を使った音楽なのではないか。
また、後半でてきた「そもそもコンサートの意味は……」の後に続くところ に書いたことは、とてもあいまいなものである。しかし、ランダムではないので はないだろうか。ただ適当にしているものではないからだ。どの音を強くし、ど の音を弱くし、どの部分を強調させ、どのように表現していくか、どのように他 の演奏者、または観客と一体になるか。このような“面白味”といものがコンピ ュータ音楽で作られることがあるのか、このような“感覚”で“経験”で行って いるものをコンピュータで実装できるのだろうか。また、テンポなんてものは、 今のコンピュータでも追いかけることは可能となっているようだがそれだけでは ダメなのである。“音を合わせている”だけで、それ独自が持つ音楽というもの をつくれていないように思える。(つまり音を合わせるというのは、状況などは 関係なしに、ただコード進行をうまくあわせることなど)「音符における長さの 変化」が音楽を作り上げる重要な要素であるということを述べているところもあ ったのだが、まさにその通りであろうと思う。最近は特に作曲者が長さを指定す ることは多いようであるがそれでは演奏はつまらなくなってしまったりもする。 このような考え方をプログラムにし、コンピュータで実装するのは難しいのでは ないのではないかと思う。このあたりの考えに入ってくると、音楽の“感覚” “経験”だけでなく、その場の状況、演奏者の“感情”などが重要なポイントと なってきているように感じる。このあたりの臨機応変の実装というものが可能と なれば“人間らしい音楽”との間が狭まってくるのではないかと思う。

4.おわりに

今回僕が考えたものは、音楽にとても長けた人の話を題材にしたつもりで あるから、正直僕のような素人に何がわかるのだろうか、という考えも大きくあ る。しかし、ここで述べてきたような“感覚”による音楽というものが存在する のは確実であろうと思うし、それがどのようなものであるのかオーケストラを生 で聴いたとき少しは感じることができたつもりだったのでそれについて考えてみ た。
しかし、結局人間らしい音楽というものは、それ自体が曖昧なものであるから、 どういうものかはっきりわからないと言うのが答えになってしまうであろう。 ここまで述べてきたことは、プロから見た感覚をもとに考えたもので、もしかし たら“人間らしい音楽”には“だれも認知していないが感じているもの”がどこ かにあるのかもしれない。それらのような物がもしあったとしたら、それこそ人 間らしい音楽であってそれの実装とはますます不可能に近づいてしまいそうであ る。


音声認識

1.はじめに

音声認識とは、ヒューマンインターフェースの要素技術として 重要であるばかりではなく、大脳の高次機能の解明と工学的実現という次世代の 科学的技術と密接な関係があり、学問的にもきわめて重要なものである。

2.

人間や動物が喉、口、鼻などの器官を使って出す音を声と言う。言葉を喋る ときに使われる声は音声と言う。声帯音源は鋸歯状の概周期的な音波で、その基 本周波数は、男声で70〜200Hz程度、女声や子供の声では150〜350Hz程度で ある。

3.

音声は人間にとって自然で手軽で負担の少ない、しかも能率のよい言語情報 伝達の手段であるから、人間とコンピュータとの間の情報のやり取りを音声によ って行うことができれば、コンピュータが人間にとって使いやすく、大変役立つ ものになる。

4.

音声言語のよって人間とコンピュータとの間のコミュニケーションをスムー ズに行うためには、コンピュータは人間が発声した音声を聴取し、伝達すべき内 容の音声を生成しなければならない。音声によって表現されるテキストを自動的 に抽出する。

5.

音声信号から言語情報を自動的に抽出し、音声に対応するテキストを自動的 に決定することを音声認識と呼ぶ。

6.「おわりに」

すべての人の音声がコンピュータに備えられてえいる音声と 一致するわけではない。それはコンピュータが一般的な音声しか認識できないか らである。


コンピュータミュージックの音楽性

概要

近年、MIDIなどのコンピュータによる音楽が増えてきた。 コンピュータミュージックは個人の趣味の範囲を超え、 すでに音楽業界でもシンセサイザなどの使用による コンピュータミュージックが現れている。 そのコンピュータミュージックと楽器演奏による音楽との 感覚的な違いをここでは考えたいと思う。

1. はじめに

近年、コンピュータミュージックは以前に比べ非常に その使用が増えてきた。しかしながら、その自由な表現力に よって「生きた音」という物が生まれているのだろうか。 それについて考えてみたい。

2. コンピュータミュージックと楽器音楽の大きな違い

コンピュータミュージックと楽器音楽の大きな違いは デジタルであるか、アナログであるかだろう。コンピュータミュージックは デジタルであるがゆえに間違いのない完璧な音を作り出す。 しかし、楽器音楽は不完全な人間によって演奏されるために 間違いのない音はないし、わずかな音域のずれ、うねりなどが その音の中に生まれる。
(ここで、"不完全な人間"という表現をしたが、あくまで人間が 人間である以上、間違えないで引き続ける可能性は0ではない と言う事からそう表現しただけである。)
この違いは、人にどのような感覚の違いを生むのであるか考えてみたい。

3. 実験

ここである実験を行った。実験の内容を告げず、MIDI演奏の音楽と 楽器演奏とされるライブCDの音楽を数名に聴いてもらい、感想を聞いてみた。 感想は以下の通りである。
楽器音楽
「きれい。」
「なんとなく落ち着く。」
MIDI音楽
「きれいだけど、完全すぎて面白くない。」
「整っているけど、何か面白味がない。」
実験参加者が少なかったため、この結果で結論を出すのは 問題かもしれないが、この結果でわかったのは、 楽器音楽がMIDI音楽に比べ、不完全さが感じられ、 その不完全さが人の感情にはよく働くのではないかと言う事だ。

4. 考察

今回実験で使用したMIDIデータは私の友人が独力で作った物であり、 実験に用いるのはふさわしくなかったかもれない。 また、実験人数も少ないため、きちんとしたデータははっきり言って この実験では取れなかっただろう。
しかし、私が考えているのは、「人間は不完全だからこそ、不完全な音楽に 引かれるのではないかと言う事だ。 完全で、気の抜くところのない音楽よりもわずかでも不完全なところがあって、 そこで気を抜くことが出来る。そんな音楽が人にとって生きた音楽と 言えるのではないだろうか。私は個人的な意見として、完全よりも不完全を好む。

5. 終わりに

人間はその成長につれていろいろとデジタル化していき、 間違いのない物を作り出していく。 しかし、音楽に限らず、絵、彫刻などいわゆる芸術と呼ばれ 昔から親しまれてきた物はいつまでもアナログのままで 生きた物として残していきたいと思う。


コンピュータと音楽について考える

概要
音楽を楽しむにはそれにあったスキルの習得を必要とされ、また身 につけるまでには果てしなく遠い道のりが待っていることが多い。 そんな音の世界をもっと手軽に楽しむことはできないのだろうか。 この問題の解決策の一つとなるのが、コンピュータ音楽の世界であ る。音楽にコンピュータを導入することによって、それまでできな かったことを可能にし、楽しみの世界を広げることができるのでは ないかと思う。また、コンピュータを応用し新たな可能性をも見出 していけるのではないだろうか。

「音楽」と聞いて思い浮かべることの一つとして、楽器の演奏があ る。曲を作ったり演奏したりするにもまず楽器を奏でない事には始 まらない。特に自分で演奏したり曲を作ってみたいと思っている人 はまずここから始めなくてはならない。これはごく当たり前のこと ではあるが、演奏するためのスキルはそう簡単に身につく物ではな い。そのため、良いイメージが浮かんだり自分の好むメロディーを みつけても、その音を作り出す喜びをなかなか味わえず悔しい思い をすることが多い。実際自分も今まで幾度となく自分で曲を演奏し たり作曲してみたいと思い、楽器を手にしてきた。しかし、そのた びに挫折を繰り返し結局なにも残らなかった。というのも自分で楽 器を演奏するスキルを身につけるということが最も困難を極め、挙 げ句の果てには楽器を手にするのもいやになるくらいうまく行かな いのである。自分が求めているのは、手軽でしかも簡単に音楽を楽 しむことである。にもかかわらず目の前に大きく険しい壁が立ちは だかってしまっていて、音を楽しむ以前の問題なのである。
この点を簡単に勝つ手軽にできるのがコンピュータを用いた音楽で はないかと思う。無論、コンピュータを使って音を楽しむといって もその種類やアプローチはいろいろあるし、目的によってもさまざ まである。ここではコンピュータを使って音楽を「演奏」するとい う部分について考えようと思う。 
最近よく聞かれるようになったMIDIによるパソコン音楽の自動演奏 などもコンピュータに音楽を演奏させる物の一つである。ホテルや 展示会などでピアノがひとりでに曲を弾いていたりするのがそうだ。 単純な自動演奏の場合、MIDIでは音源に処理を任せてしまえばなん の変化もなく演奏を続けることができる。考え方を変えると、常に 機械的に音楽を演奏し続けるだけ、ひどい言い方をすれば感情のな い非人間的な音楽を作り出しているだけである。音楽にはその曲が 持っている調子や抑揚が聞いている人に影響を与えるわけであり、 それにより曲を楽しむといっても過言ではない。その本質的な部分 が欠如してしまっては本当に楽しめる音楽とは言えないのではない だろうか。
音楽情報のなかにはその要素として、「音量」、「テンポ」、「音 色」というものがありこれらをより精密に表現することにより芸術 的な演奏ができるのであり、それぞれの要素についての変化や抑揚 といったより高度な情報が重要となるのだ。一昔前にはこの部分を コンピュータを使っていかに本物に近い音楽を作り出すことができ るか必死で考えられてきたが、最近ではテンポの変化スピードなど の変化形態についてのパラメータを持つシーケンサなども開発され た。これにより自動演奏も大きく飛躍してきたのである。
ただ具体的な話になるとまだまだ問題視されるところも少なくはな い。自動演奏の場合音符情報だけを記述したデータ部分と演奏表現 に関するデータ部分とを分けて持つというスタイルが一般的である。 だが、音符情報のデータだけをひたすら演奏してしまってはまさに 機械的な演奏でしかなくなってしまう。要は演奏表現に関するデー タ部分が重要なのである。曲の音色やテンポの微妙な変化などをデ ータ化し実現することにより、芸術的勝つ人間的な演奏を可能にす るのである。音を出す強さやタイミング、強弱などを表現できれば 文句無しの演奏になるのである。とはいっても、そこはコンピュー タ。人間にはなかなか近づけないのが現状ではないだろうか。
そもそも音楽の演奏の際必要とされる音符は、これまでに話した 人間にとっての音楽の要素情報を集めたものであり、コンピュータ が必要とする情報には欠けていることが多い。同じ楽譜を見て演奏 しても奏者が違えば多少ニュアンスが違ってくることがある。これ はその奏者によって楽譜から読み取る情報の解釈が微妙に異なるか らだと思う。また演奏する楽器によっても違いは起こる。このよう に多くの種類がある音符情報をコンピュータ(計算機)用に解釈し いかにそれを反映させるか。この問題については現在もこれらに関 する研究が多く進められている。それでも楽譜に書かれている表現 に対応した自動演奏の手法の研究というのはまだまだ未開の地とな っている。この研究を進めていくのは簡単なことではないと思うが 研究が進み自動演奏の新たな可能性が発見されることに期待してい る。いつの日か、人間の演奏と差のない自動演奏が実現され、より 人間味のある芸術的ともいえる演奏ができるようになることに期待 したい。
まだまだコンピュータにできることには限りがあり、多くの可能 性を秘めている。すこしずつ人間に近づき、人間に負けない能力を 持ったコンピュータが登場する日もそう遠くないのではないかと思 う。


コンピュータミュージックの世界

概要

大学に入って、DTMという言葉を初めて知った。私は、作 曲というものに憧れは持っていたものの、到底自分には無理なこと だと思っていた。しかし、コンピュータミュージックを知って、そ の可能性の大きさに驚き、自分でも制作できるとわかり、喜びを感 じている。著作権の問題をはじめとして、これからたくさんの問題 が生まれてくると思うが、新しいコンピュータミュージックに期待 していきたい。

1、 「はじめに」

最近、DTMの人気が爆発的に高まっているのを感じる。私は、大 学に入ってパソコンについて学ぶまで、DTMという言葉を知らな かった。大学に入って、DTMというのはパソコンを中心とした音 楽制作/演奏システムのことで、パソコンと自動演奏用ソフトウェ アなどを使ってシンセサイザー演奏を行うものであると知った。こ れまでプロフェッショナルな人たちが録音スタジオやらマルチ・ト ラック・レコーダーなどを使用してやっていたことと同じようなこ とが、パソコンを使えば机の上で — つまりデスクトップで — ア マチュアでも表現できてしまうのだからすごいことである。

2、「幼いころの挫折」

私は、幼稚園のときにピアノを習いはじめた。最初に何をひく練 習をしたのかは覚えていないが、始めての発表会で弾くことになっ た曲は「雨」である。「雨雨 降れ降れ 母さんが ~…」というフ レーズはかなり有名である。私は、その曲が弾けなかった。片手で 弾くことは可能だったが、両手で弾くことがどうしてもできなかっ た。今思えば、そこであきらめないでそれを乗り越えればよかった のに…と思うのだが、幼かった私は、幼いながらに持っていた小さ なプライドを傷つけられ、「もうやめる!!」と言って、その習い 事をやめてしまった。それからは、学校の音楽の授業意外には鍵盤 に触れる機会もなく、今は、「猫ふんじゃった」くらいしか弾けな いのである。ピアノやエレクトーンなんかをかっこよく弾ける人を 見ると、とてもうらやましく思う。決められた楽譜のある旋律も弾 けないこんな私だから、自分で曲を作ったりアレンジするなんてめ っそうもないと思っていた。コンピュータミュージックを知る前ま では…。

3、「コンピュータミュージックの無限の可能性」

私は、以前から「作曲家はよくネタが尽きないな。」と感じてい た。いつの時代にもさまざまなジャンルの音楽がある。これまで世 に出されてきた音楽は無数にあるのだが、よくこんなにもいろいろ なテンポや音色・サウンドが生まれるものだなと思っていた。俗に ファミリーと言われているような、何人もの歌手をプロデュースし ている超売れっ子の作詞・作曲家は、次から次へとアイデアを出し て曲を作っていかなくてはならない。作りたい曲を自分のペースで 作っていくのとわけがちがって、時間に追われながら作っているの だと思う。私の中のイメージでは、こういう作曲家は曲を作るマシ ーンのようなものである。作曲家の中には楽器や自分のアカペラだ けで曲作りをする人もいるかもしれないが、コンピュータを使って いる人もたくさんいるだろう。コンピュータを使えば、ちょっと音 量・テンポ・音色をアレンジするだけでまったく別のものが生まれ るのである。これなら、アイデアは尽きることなく、新しい曲も生 まれてくると納得できるのではないか。

4、「盗作の問題」

しばらく前に、作曲家の小林亜星氏が服部克久氏を「自分の作っ た曲を盗作した!!」といって訴える出来事があった。テレビで流 れていた双方の作った曲を聞き比べてみたが、素人の私には盗作と は感じられなかった。専門家が聞いたらいろいろな議論もあると思 うのだが、無数にある曲で、たまたまリズムや音色が似ているもの があっても当然ではないだろうか。結局その裁判がどうなったのか ということまでは詳しく知らないが、何を基準に盗作か否や判断す るのか、とても疑問である。
コンピュータミュージックの世界では、他人のサウンドをコピー して、ちょこっとアレンジしただけで、もとのものとは全く違った 作品ができあがってしまうこともある。これはもともとは盗作なの に、出来上がりから見れば全く気づかれることもない。これからは、 そのような著作権に関わる問題に対しての対処・対策がますます問 われるようになるだろう。

5、「新しいコンピュータミュージック」

ミュージックをマルチメディア・アートとしてみたときに、グラ フィックとミュージックのコラボレーションは非常に意味のあるも のである。グラフィックな図を音楽に変換したり、その逆に、演奏 された音楽をその場でスクリーンにグラフィック表示することによ って、聴く側はバーチャルリアリティを体験できる。私は、以前か らデザインやCGに興味を持っていたので、ミュージックを視覚的 にとらえることに関心を抱いた。特定のグラフィックを表示するこ とで、音楽を聴いて想像できる情景が限定されてしまい、広がりが なくなるという心配もあるかもしれないが、音楽を視覚から聴くと いう聴き方もでき、面白いのではないだろうか。
また、指揮者に従うコンピュータ・ミュージック・システムは指 揮者の動きから音楽のテンポ、ダイナミックスを計算し、MIDI機 器をコントロールするという大変ユニークなもので、早稲田大学の 理工学部で研究・開発されているそうである。指揮棒の先端に赤外 光源が取り付けられており、その動きを赤外フィルターつきのCCD ビデオカメラが捉え、コンピュータを用いて指揮棒の動きの方向や 加速度から音楽のテンポを予測し、空間の移動距離から音の強弱を 計算するというものである。このシステムを用いれば、生楽器など との共演も可能で、オーケストラとコンピュータのコンチェルトも 夢ではないだろう。

6、おわりに

コンピュータは、音楽の本来的な創造活動を取り戻すための道具 として大変有効であると考えられる。音楽は、元々は誰でもが口ず さみ、創造し、演奏するのが当たり前であったはずが、専門領域化 して創ることを放棄してしまったようだ。これからは、既存楽曲の 演奏や鑑賞などにとどまらず、みんなが創作を楽しむことができる ようになればいいと思っている。


デジタルソング

概要

一つの唄をフルデジタル、ゼロからコンピュータで生み出すことが 可能なのだろうか。それを考えてみる。

1.はじめに

4日間の音像メディア論の講義の中でセンサーを使ったリアルタイム 演奏やアルゴリズムによる作曲などでで音楽を作ることができるとい うことがわかった。しかし、そこで紹介されたものはいろいろな音の 集合体である音楽であって、日常よく聞かれる演歌やPOPSなどのよう な歌詞のついた歌という音楽ではなかった。では、そのセンサーを使 ったリアルタイム演奏やアルゴリズム作曲などで作られたものに歌詞 をつけて曲を作ることはできるのだろうか。

2.アルゴリズム作詞

しかし、いわゆる自動で歌詞をつけて演奏するということはかなり難 しいことであると思われる。それはいろいろな音の集合体の曲ならば 和音やド、レなどの音のつながりを考慮したアルゴリズムのみを考え ればある程度しっかりとした曲を作ることが出来る。それに対し、詩 のついた歌という物の場合その発する音のまとまり毎に意味というも のが存在する。ただ単にa、iなどの母音を集めただけでは意味のある 音の集まりにはすることはほぼ無理に等しいと考えられる。そう考え ると自動で歌詞をつける場合、仮に日本語を使用すると考えると、ゼ ロから50音すべてを作成してそれを並べて歌詞とするやり方では到底 無理であると感じられる。あらかじめある程度の単語、例えば「愛」 「友情」「〜だ。」などの単語を登録しておいてそれをその都度呼び 出すことで歌詞をつけて演奏ができるのではないかと考えることがで きる。ただ、この方法では、登録された単語間のつながりがより自然 になるように配慮をして登録しておくことが必要である。ぶつぶつと 途切れながら単語が並んでいるようではとても歌っているようには聞 こえないからである。

3.デジタルシンガー

アルゴリズム作曲とアルゴリズム作詞を組み合わせれば、完全なデジ タル歌手を作ることができるだろう。歌声は実際に存在する人間の声 をサンプリングしてデータとして使用するのではなく、ゼロから人間 に似せた声を作る。これで歌声は男との声にも女の声にもすることが でき、コンピュータから生み出された完全デジタルな歌声になる。容 姿のほうはCGで作り出ことができるだろう。こちらのほうはリアルタ イムでCGを生成しながらの演奏は無理かもしれないが、現在の技術な らばほぼ人間に近いCGを描くことができるので事前に動作パターンを 登録しておけば歌いながらリズムを取ったりダンスを踊るといったこ とが可能であると考えられる。これらすべて組み合わせればライブ演 奏も可能であるので完全に歌手業をこなすことが可能である。

4.おわりに

これまでに書いてきたことが実際に可能になったらもしかしたら何千 万枚も売れるような歌手が誕生するかもしれない。ルックス的にも良 く歌を歌わせれば万人が歓喜するような歌手である。それは完全にゼ ロから声や容姿を作り出し、アルゴリズムで曲を作り出すのであるか ら、心理学や人間行動学等を用いて人間がもっとも聞きたいような音 楽を作り出すことが可能かもしれないからである。これは自分が生き ているうちにきっと成されると期待して待っていたい。


さまざまな電子楽器

概要

現在、電子楽器は日常的に演奏や作曲で用いられるようになり、 その音は毎日テレビやCD、ゲームの音として耳にしている。そ の電子楽器の種類や特徴を歴史的背景などと共に見ていく

1.電子楽器の定義

電子楽器について議論する前に、電子楽器の定義を確認しておきたい。電 子楽器の定義は「電子音源を持ち,電子的に音を増幅して発音する楽器」で ある。それに対して電気楽器は「機械振動を音源とし、電子的に増幅して音 を発する楽器」と定義される。電子楽器は、音量や音色のコントロールが自 由で、調律が不要といった特徴を持っている。

2.電子楽器と自然楽器

では電子楽器と自然楽器では、どのような違いがあるのだろう。ザックス らによる科学的分類によると、楽器は体鳴楽器、膜鳴楽器、気鳴楽器、弦鳴 楽器、電鳴楽器 の5つに大別される。そのうちエレキ・ギター、シンセサイザーを含む電鳴 楽器を除いた4種の楽器は自然楽器である。
自然楽器に分類される楽器の音の発生は、人間が楽器にエネルギーを入力 することから始まる。体鳴楽器に含まれるシンバルやトライアングルでは人 間が発音体を打ちつけるとによって振動が起こる、膜鳴楽器に含まれる太鼓 やつづみでは、棒や手で膜面をたたく、気鳴楽器に含まれる尺八やトランペ ットには、息を吹き込む。弦鳴楽器に含まれるギターや三味線では、弦をは じくことによって振動が起こり音が発生する。それに対し電鳴楽器に分類さ れる楽器では、こういった物理的なエネルギーを入力するのではなく、どの 音程をどれくらいの長さでどれくらい強くといった情報を入力する。実際、 市販されている多くの電子楽器においては、人間はこれらの電子楽器を演奏 する場合、鍵盤を叩いたり、弦をはじいたりするというエネルギーの入力を 行うことが多いが、これらのエネルギーが直接物理的な振動にはならず、い ったん情報に置き換わっている。
楽器の音の発生は振動の発生後、共鳴という過程を経て音となり耳にとど く。自然楽器は、そのほとんどが共鳴する構造を持っている。体鳴楽器では 発音体そのもの、膜鳴楽器では膜が張られた胴体、気鳴楽器では息を通す管、 弦鳴楽器では弦が張られた胴体である。電子楽器(電気楽器ではなく)では、 入力された情報をもとに音源が電子的な波を発生させ、それをアンプで増幅 し、スピーカーが空気を振動させる。
自然楽器はそれぞれが独特の音源と共鳴構造を持っているのに対し、電子 楽器は内部での情報の扱われ方が違うだけで、どれも共鳴構造の代わりとな っているアンプやスピーカーは同じである。そのため、電子楽器の演奏はい つも同じ音が鳴ってしまい、演奏者が感情を音のニュアンスとして反映させ ることができない。そういう点から考えると、エレキ・ギターとシンセサイ ザーは同じ電鳴楽器として分類されているが、ジェフ・ベックのギターが「泣 きのギター」と形容されるように、感情を反映させられる点ではエレキ・ギ ターは自然楽器に近いのではないだろうか。音の出口がスピーカーという点 で共通していても、物理的な振動を拾っているかどうかという根本的な違い があるが。
さらに自然楽器の演奏はエレキ・ギターも含め、さまざまな奏法というの を持っていて、それらは常に進化しつづけている。新しい奏法によって同じ 楽器でも、ずいぶん違った音が得られる。ギターではライトハンドやスキッ ピング、スウィープなどがそれである。それに対し電子楽器で、新しい奏法 によって違ったニュアンスを得るのは難しい。最終的には電子的に処理され て、スピーカーという同じ出口に出てきてしまうために、人間のこめた感情 はかき消されてしまう。
こういうことから考えると、自然楽器に電子楽器が対抗しようという考え 方は捨てたほうがいいのではないかと思う。それは決して自然楽器の方が電 子楽器より優れているということではなく、別々の物として区別した方がよ いのではないかということである。おなじ楽器としての比較対象にするのは いいが、優劣を競うのは愚かしいのではなかろうか。

3.電子楽器の歴史

電子楽器の歴史は約90年前にさかのぼる。1906年アメリカのタディ ウス・ケイヒルが巨大な発電機と複数の機械から成る、テルハーモニウムと いう人類初の電子楽器を生み出した。テルハーモニウムは、重量は200トン に達し、交流発電機をつないだもので一定の周波数で変化する電流を作る機 械で、当時はスピーカーがなかったため、電話を通じて音を伝えていた。そ の後、1920年にロシアのレオン・テルミンによって電子発振を用いたテ ルミンがつくられた。1928年には、フランスのモーリス・マルトノによ りオンドマルトノが作られた。オンドマルトノは本格的に音楽に使える初め ての電子楽器といえる。

4.いろいろな電子楽器

・テルミン
歴史の中でも紹介したように、テルミンは1920年に開発された電子発振 を用いた電子楽器で、音はヒョォーヒョォーといった幽霊が出るときに使わ れるような音に似ている。アンテナが2つあり、1つは音の高さを調整、1 つ音量を調整に使われる、この音程のアンテナに手を近づけると高音になり、 遠ざけると低音になる。全く楽器に手を触れずに音を奏でるという点は、他 のどの自然楽器や電子楽器にも見られない大きな特徴の1つである。音階を 出すのが非常に難しく、音楽として演奏するのはかなり困難であるが、発明 したレオン・テルミンの妻であるクララ・ロックモアはテルミンの名手とし て知られている。また、The Beach Boysの「Good Vibration」や、Led Zeppelin の「Whole Lotta Love」の中で実験的に使われたり、ヒッチコック監督の映 画「白い恐怖」の中でも使われている。
・オンドマルトノ
1928年にフランスの電気技師モーリス・マルトノが、三極真空管から発 信される音に注目しつくられた。スピーカーだけでなく、銅鑼や弦を利用し て音響的にアコースティックな工夫が凝らされている。単音だが、その済ん だ音は天来の妙音と形容される。日本では原田節というオンドマルトノ奏者 が現在でも活躍しており、その音はCMやテレビなどで耳にすることができ る。
・ハモンド・オルガン
ハモンド・オルガンは、1934年ローレンス・ハモンドによって発明された電 子鍵盤楽器である。ハモンド・オルガンの原型はケイヒルのテルハーモニウ ムにある。ハモンド・オルガンといえば、ディープ・パープルのジョン・ロ ードや、EL&Pのキース・エマーソンなどがロックでは有名である。
・メロトロン
メロトロンは電子楽器にも電気楽器にも分類しづらいが、鍵盤楽器の形をし ていて鍵盤1つ1つにテープの再生装置が割り当てられていて、録音された 音を鍵盤を押して再生する仕組みになっている。鍵盤は生成するためのスイ ッチとしての役割にすぎないためアタック音がなく、ピッチも不安定である。 The Beatlesの「Strawberryfields Forever」や、Led Zeppelinの「The Rain Song」が有名。King Crimosnもメロトロンの悲壮感の漂うような、現実離 れした音を好んでよく使っていた。
・ミニムーグ
ムーグはアメリカのロバート・モーグによって開発された。モーグは、「ま ったく新しく、おもしろくて早く正確に作曲できるものがほしい」という音 楽家の要求にこたえ、電圧で音程をコントロールするVCO、音量をコント ロールするVCA、音色をコントロールするVCFを発案した。1970年 に名器ミニムーグを発表した。その音は太くて暖かいのが特徴。

5.おわりに

テレビやCMであたりまえになっている電子楽器の歴史は以外に古く、そ の進化もなかなか奥深いものであることが分かった。未だに電子楽器の音を 自然楽器と比較して、冷たいと言う人がいたり、電子楽器を一切使わないこ とをアルバムのコンセプトにするミュージシャンもいたりして、自然楽器に 対して電子楽器を邪道な楽器として考える古い思想も未だにはびこっている のも事実だが、自然楽器とは別に現代の音楽にはなくてはならない楽器にな っているので、今後の発展が期待される。


自動演奏システムと自動伴奏システムについて

概要

コンピュータが発達してきて、コンピュータを用いていろいろな音 楽が創られるようになってきたが、これから重要なことはコンピュ ータの演奏する音楽がいかに人間の演奏する音楽に近づいて行ける かという点であると考える。そこで、このレポートでは自動演奏と 自動伴奏システムについて考察する。

1. はじめに

コンピュータによる自動演奏とは、今までの私のイメージでは、 MIDIによる一般にTVなどで流れているコンピュータ上で創ら れた電子的音楽の演奏のことだった。しかし、コンピュータによる 自動演奏とは、そういったものだけでなくコンピュータで制御され た音楽、音の演奏全般のことを指している。そして、自動伴奏シス テムとは、コンピュータの自動演奏と人間の生の演奏を共演させよ うというシステムである。ここで、コンピュータと人間の大きな違 いである表現力ということが問題になってくるのである。これから、 この点について考察することにする。

2. 演奏表現について

コンピュータの音楽は、コンピュータの特徴を備えたそのままの 音楽であってもそれなりの良さはあると思うが、やはり、人間と共 演するのであれば、人間の表現力というものを備えていなければな らないだろう。音楽が本来もっている人間に影響を与える力は演奏 がコンピュータによって生成されたとしてももっているべきである 、という言葉にとても共感できる。しかし、こ れはとても難しい問題であるだろう。部分的なテンポの速さや音の 強弱や音の微妙な長さや音と音の間など様々な要因が表現力に関係 している。人間は、こういったことを自分の感性で判断して演奏す るのに、それをコンピュータで実現できるのだろうか。演奏の表情 付けの研究の成果は、研究が進むほど解決し理解されることが多い が、一方では同時にさらに課題がでてくるという。解決される問題 が多いということに驚いた。これからどこまでコンピュータの表現 力が高まっていくのかということに期待したい。
演奏の表現力は、特に自動伴奏システムとも関わってくる。次は、 自動伴奏システムについて考察する。

3. 自動伴奏システム

あらかじめ楽譜が与えられている状況で、人間の独奏者の演奏に 合わせて、コンピュータが伴奏パートを演奏するシステムが伴奏シ ステムである。自動伴奏システムは、人間がコ ンピュータと一緒に演奏をするインタラクティブコンピュータ音楽 において、その重要な要素技術となっている。まだ、コンピュータ がリアルタイムで演奏できない時に、人間がコンピュータと一緒に 演奏をする上で問題となったのは、人間の演奏者はコンピュータと いう演奏者に完全に服従して演奏(機械主導型のアンサンブル)し なければならない点である。さらにコンピュータが発達して、リア ルタイムでコンピュータの音楽を演奏させることができるようにな った。ここで、人間は何でも自分で支配したくなる生物なので、人 間の演奏者に合わせてコンピュータの演奏を制御(人間主導型のア ンサンブル)しようと考えた。人間主導型になるためには、いろい ろな問題点がある。コンピュータの自動演奏を人間らしくするとい う場合の問題点と同様に、人間は感情移入をするため、微妙なテン ポになったり、強弱をつけたりするのである。その変化に伴いコン ピュータの演奏は人間らしく自然な変化をつけなければならない。 また、人間が失敗したら、それにあわせなければ演奏が大失敗にお わってしまう。現在では、講義のビデオでも見たように、人間の伴 奏者とはまだ程遠いが、なんとか伴奏を人間の演奏に合わせること はできるようになっているようだ。ここからほんとの人間のように 伴奏を合わせるまでにはまだまだ時間がかかるだろうし、前にも書 いたように、人間は感性で判断しているのにコンピュータがそれに 追いつくことはできるのだろうか。

4. おわりに

人間とコンピュータの間にはまだたくさんの壁がある。音楽の面 では、特に人間の感性が重要であるからコンピュータが人間に近づ くことは困難であると考える。今後は、人間の感性がどういったも のかという研究を進めていくと、この問題も進展していくのではな いだろうか。


感性情報における自動演奏システムについて

概要

まるで人間が演奏しているかのようにコンピュータに演奏させるこ とは、自動演奏システムにおける到達点である。個人が主観で判断する中 で、大多数に受け入れられるような演奏システムを構築するためにはどの ようにすればいのか。

1、はじめに

私がまだ幼い頃、ホテルのフロントに置いてある黒光りし たピアノが、誰もいないのに勝手に演奏するのを見て、大変印象を受けた ことを覚えている。人はいないのに鍵盤はおちて、ピアノからは曲が流れ る。私のピアノもこうであったら、私は練習をしなくても良いのに、と勝 手なことを考えたことがある。

2、

自動演奏システムは、より人間の演奏に近づけ、楽譜に書かれていな い演奏をどのようにして実現するか、という目標の元に進められてきてい る。音の強弱、テンポ、リズムなど、その音楽に合った演奏をコンピュー タにさせる。楽譜に書いてある通りの音符やコードで演奏させたならば、 それからは何の感動も受けない、一遍通りの演奏となってしまうからであ る。私たちが求めるのは正確な演奏ではなく、生身の人間のように表情の ある演奏なのである。

3、

演奏にそれ相応のおもむきを持たせるには、その曲の構造をよく理解 し、楽譜にしるされている発想記号を正しく実行することし、そのうえで 、楽譜の上にかかれていない音楽の表情を加えることである。

4、

音楽に表情を付加する際、それをどのようにすればより良いのか、と いう点が問題になってくる。大多数の人が納得するような演奏をさせるた めに、どれだけの付加をすれば良いか。表情豊かで人間的であり、しかも 音楽的であること。それは音楽に対しての個人の解釈であるので、そこを 突き詰めていくのは大変なことである。どんな音楽も賛否両論であり、解 釈も人によって異なる。それをコンピュータにやらせようとしているので ある。これを実現するには、完全に研究者の感性に従って解釈のモデルを 作成したり、名演奏の分析を行いそのデータに基づいて演奏データを生成 したり、また、楽譜情報の構造を解析し、人間ならばどのように演奏する かといった演奏家モデルを通して人間らしい表情のある演奏を作成する、 などがある。しかし、研究者の感性のみに頼ってしまう場合、それが主観 的であり世間一般に認められない、という結果が出てくる可能性もある。 より大多数の人に受け入れられる音楽を追求すると、最終的には著名な演 奏家の演奏表現にたどりつく。それは生身であり、芸術的で音楽的、しか も、主観的と言われるのではなく、独創的という表現にあたるからである。

5、

私たちが普段音楽を聞く時、主観的な情緒を感じる。「もの哀しそう で、寂しい」とか、「楽しそうで明るい」といった感じである。理解し、 認識するコンピュータに対して、私たちは感じることを求めるのである。 私たち個人の主観的な感性を刺激するために、大多数の人の感性を刺激で きるような客観的感性の持ち主となるコンピュータを作成することが求め られる。

6、終わりに

自動演奏システムを構築する際、より一般受けするように 作成するのは、イタチゴッコのように思える。どんなに完璧に作ったとし ても、それと解釈の異なる人が聴いたならば「主観だ」と判断されかねな いからである。どこまでつきつめたら「これで完成だ」と判断するか、研 究者の塩梅にかかっていると思われる。


音像と映像

概要

現在のメディアには、多くの映像と音楽が存在する。映像と音像がどのよ うな関係を保っているのか、また、これからどのように結びついていくべ きなのかを考える。

1 はじめに

現在、情報メディアには音像と映像が主となっている。私たちの日常にはこれ らの2つが頻繁に登場する。しかも、音像だけ存在したり、映像だけ存在するの ではない音像と映像が同時に存在するものが非常に多い。これは、音像と映像が 結びつくと、より高度な情報伝達ができるのではないか。いくつかの例をあげて このことを考える。

2 効果音

ドラマや映画などでは、必ずといっていいほど悲しいシーンや楽しいシーンが ある。役者の演技だけでもその雰囲気は伝わるが、さらにその雰囲気にあった音楽 を流す。それにより、そのシーンの状況を誰にでも分かるようになる。このシー ンを何度も見た人は、音楽を聴くだけでその時のシーンが頭に浮かぶ。それを利用 したのが、ドラマやアニメなどのサウンドトラックである。
TVのバラエティ番組でも効果音が用いられている。タライが頭に落ちる時や 人の頭を叩く時などに使われる。実際の音だけではその衝撃や何が起こったのかが 分かりにくい。実際の音に特殊音を加えることにより分かりやすくなり、皆が笑え る。
これらのように、効果音によりその雰囲気や状況がわかりやすくなる。

3 テロップ

先ほどの章では、映像を音像が助けるという形であった。この章では、音声を 映像を助けるという形の例をあげる。TVの音楽番組やトーク番組で使われるテロッ プである。
音楽番組では歌手が歌う時に、歌詞を画面の下に映す。これにより、視聴者は 歌詞カードなしで聴くことができ、とても聴きやすくなる。
最近、登場したのがトーク番組で用いられているテロップである。会話はとて も早口で話すことがあり、聞き取れないことがしばしばある。そのため、笑える所を 笑えずに終わってしまうことがある。それは番組制作側も視聴者側も損である。そこ で、会話のオチの会話の部分を画面の下にテロップで文字にする。それにより、確実 に聴き取ることができる。
音声というのは一瞬なので聞き逃してしまうが、文字と組み合わせることによ り確実に相手に伝えることができる。

4 主題歌・コマーシャルソング

TVの番組や映画には主題歌がある。主題歌は、その番組の看板的な役割を果 たす。その主題歌がいい曲ならば、その主題歌は売れて、その番組まで人気が上がる。 また逆に、番組が面白ければ、番組の人気は上がり、その主題歌まで売れてしまう。 このように番組と音楽により経済的な相乗効果が起こる。コマーシャルにおいても同 様な効果が起こる。

5 おわりに

情報メディアの中で、映像と音像はいろんな形で結びつき、いろんな効果を生 んでいる。映像と音像の共存は必要不可欠になってきている。将来はもっとこの繋が りが強くなっていく。現在、市販されている楽曲はCDが主流である。将来は、ビデ オがもっと低価格になれば、CDではなくビデオで楽曲が提供されるだろう。


人間は音楽をどう感じるか

概要

音楽情報科学において自動演奏を研究している人達の目標は、いかに 音楽的、芸術的、人間的に「楽譜に書かれていない演奏」を実現するか、 という部分に向けられている。しかし、大多数の人々が音楽的・芸術的 と感じるとはどういうことなのか、人間の感情という視点から音楽を考 える。

「1はじめに」

音楽情報科学を考えるに当たり、私が最初に頭に浮かんだことは、 芸術とは一体何なのかということである。コンピューターによる演奏で、 現代音楽といわれる作品をいくつか鑑賞したが、耳慣れない不思議な音 楽というのが率直な感想だった。しかし、回数を重ね鑑賞し考察した結 果、私は芸術とは記号であり、その機能はコミュニケーションであると 考えるようになった。

「2記号としての芸術作品」

ふつう芸術作品は、天才が無意識に作りだすものであって、芸術には 論理や規則といったものは存在しないという伝統的な考え方がある。つ まり芸術は、人間の内面に溢れる言葉では言い表しがたい感情のニュ アンスを直接表現するものであり、「歌は叫びである」というテーゼの 言葉などは、まさにそのことを言っている。しかし芸術というのは単な る叫びのようなものなのだろうか。確かに芸術作品は感情を表現する。 しかしたとえ子供の絵であっても、それは、例えば痛い時にしかめ面し て「あっ」と叫ぶようなものではなくて、過去の経験の感情に満ちた回 想であったり、未来への希望だったりする。というのは、芸術作品の表 現する感情は現存する感情ではなく、イメージに転化されたヴァーチャ ルな仮想の感情であるからである。このように普遍化された感情の意味 を表現するには、ただ行き当たりばったりに感じているものを、その時 のまま掃き出せばよいといったようなことはだめで、客観化のための論 理が当然必要となる。この様な論理によって自然の素材が一つの形とし て構成されることにより、我々はそこに感情の意味を表現することがで きるのである。このようにして感情の論理的表現としての芸術作品を、 我々は現示的な「記号」として考えることができるのである。

音楽も芸術作品である。音楽は数の秩序が支配している。そして音楽 はそれ自身ではなんら言語のような約束的な意味を持たない抽象的楽音 を論理的に構成して、そこに人間的感情の意味を表現しようとする。 したがって音楽の表す意味は本質的に抽象的普遍性を備えており、現実 世界の中に見出される何かを直接に指示することはない。以上のことか ら、音楽は現示的記号としての典型的なものであると考えることができ るのである。ふつう、音楽は叫びのような直接感情を表現するものと思 われがちだが、実はそうではなくて、音楽は何よりも感情の論理的な表 現であるのだ。音楽は、その独特な楽音の文節化された構成によって、 感情の高揚と衰退と交錯のリズムとパターンを表現し、言語では得られ ないような深い情感に満ちた気分を生み出すのである。このような音楽 に表現される感情の意味となるものを、我々はヴァーチャルな時間のイ メージであると言うことができるのである。この時間は現実の時間では ない。例えば、ある曲の実際の演奏時間が三十分かかる場合でも、そこ で音楽として経験されるヴァーチャルな心理的時間はもっと長かったり、 短かったりして、同じ三十分ではないだろう。音楽におけるヴァーチャ ルな時間は現実世界のものとは全く異なるものであり、「聴くこと」に よってのみ体験される仮想の時間である。つまり音楽は感情や気分、精 神的緊張や緩和の定式化の論理的表現であり、したがってそれは感動を 揺り動かすものではなく、感情的意味の洞察を与えるものであると考え ることができるのである。

「3終わりに」

現在ではMIDI楽器の演奏情報から、「感情の高まり」を導出して伴奏 システムに作用させたり、与えられた音楽情報から「悲しい」「楽しい」 等といった形容詞を導出するといったシステムが実際に実験されている。 しかし、感性という点だけにおいても音楽家の批判に応えられるだけの 研究というのは、まだまだ実現されていないというのが現実とみられる。 コンピュータが優れた作品を創造するには、我々人間が音楽のアルゴリ ズムを徹底的に解明してそれをプログラムに組み込まなければならない。 そして、このアルゴリズムが良いか悪いかは、そのプログラムで作られ る作品の結果によって判断されることになる。アルゴリズムが悪ければ、 そのようなプログラムで動くコンピュータの作品は、非常に粗末なもの になるに違いない。しかし、アルゴリズムが正しければ、そこから生ま れる芸術(音楽)はすばらしいものになると考えられる。このような意味 で、コンピュ—タ音楽(芸術)は、我々が芸術の秘密にどれだけ接近しえ たかを測るバロメ—タにもなると考えられる。


音楽演奏における人間との共演

概要

自動伴奏システムとはどういうものなのか解説し、また、そ の研究内容を紹介する。

1.はじめに

従来、人間がコンピュータを用いて音楽演奏する場合、前もっ て記憶させておいた情報をコンピュータに自動演奏・自動伴奏させ、 それに合わせて人間が演奏するという形態が主であった。しかし、 現在ではコンピュータが人間のテンポに合わせるという、より人間 的なシステムが実現されるようになってきた。これは、これまでの 出力のみの自動演奏ではなく、情報を入力しリアルタイムで処理し、 出力するということが可能になったからである。これにより、人間 とコンピュータが協調して演奏するという新しい演奏形態が登場し た。
ではまず、伴奏システムの概要を見てみたい。

2. 伴奏システムの概要

まず、自動伴奏システムの処理の流れを見ていきたい。このシ ステムが始めにしなければならないことは、演奏情報の取得である。 人間がMIDI情報を出す楽器を演奏している場合は、信号を正確に 把握し、これを利用して認識する。しかしフルート、ピアノ、声楽 などの場合、波形の周期を測定し、リアルタイムでピッチとタイミ ングを抽出する必要がある。この場合には、「フィルタを用いて倍 音をカットすると同時に平均操作を行ったり、音声の安定度を音響 パワーによって推定する」などの工夫が提案 されている。
次に、演奏と楽譜の対応を決定する処理である。システムは演 奏しながら、今楽譜のどこを演奏しているのかを追跡し、それと同 時に伴奏も出力しなければならない。そのため、演奏情報から楽譜 上の位置を確認する必要がある。この時リアルタイムのパターン認 識が課題となる。つまり、エラーへの対応も考慮しなければならな いのだ。人が間違って演奏してしまった場合、人間は音楽の流れを 優先して弾き直ししないことが多い。システムはこれらのことも考 慮して伴奏を進めなければならないのである。
最後に演奏データのスケジューリングである。前処理により演 奏が楽譜上のどこを演奏しているかが分かれば、システムは演奏者 が楽譜上のどの位置にいて、どの程度のテンポで演奏しているのか を推測できる。その情報をもとに、演奏者の演奏と調和するように 伴奏のタイミングをスケジューリングするのである。  このような伴奏システムは、世界各地で様々に研究されている。 ここで、私自身が興味も持ったものに触れていこうと思う。

3. Dannenberfの伴奏システム

これは1984年のICMCでカーネギーメロン大学のR.B. Dannenberfによって発表されたものである。このシステムの中で 私が一番興味を持ったの、仮想時計による伴奏のスケジューリング である。システムはあらかじめ演奏すべき楽譜をもっており、それ ぞれの音符をいつ演奏するかを決定するため、コンピュータ内部の 実時計を参照し、これと仮想時計との関係を調整し、演奏のテンポ を得るのである。これを演奏情報が入力されるたびに楽譜とマッチ ングし、仮想時計は修正されていくので、曲の間でテンポが変わっ ても、常に適切なタイミングで演奏を出力することができるという わけだ。

4. Vercoeの伴奏システム

これはマサチューセッツ工科大学のB. Vercoeによって発表され た。この中では、リハーサルの必要性が指摘されている。リハーサ ルを繰り返すことにより、リズムの逸脱を記録・収集し、本番では これらの平均値を用いて演奏とマッチングさせるというものである。 伴奏システムにおいても、学習の考え(リハーサル)が生かされて いることに、私はたいへん興味を持った。

5.演奏の感情付け

自動演奏の研究は、上記のように今ではかなり進んできたよう である。しかし、これらはいかに正確に演奏するかということに重 点が置かれているように思う。もし、自動演奏を音楽(音を楽しむ) として利用するなら、大切なことは演奏の正しさもさる事ながら、 音楽に備わっている表情、感情が重要になってくると言えるのでは ないだろうか。こう考えたとき、自動演奏の表情付けという研究に 注目した。この研究の基本モデルは、楽曲構造ごとに演奏生成と呼 ばれる処理を行うことである。入力された演奏情報を適当な構造に 分け、さらにテンポや大きさの変化を付加した演奏ルールを抽出す る。このルールを適用して演奏生成され、出力演奏となる。
こういった演奏生成システムは、まだまだ未発達な部分が多い ようで、例えば、本来自由であるはずのルールの特殊化、演奏パラ メータの制約によりこれを利用したルール規制の困難さなど、様々 である。まだまだ、研究せねばならない分野であると言える。

5.おわりに

人がコンピュータと協調して演奏するといのは、コンピュータ が進化し、リアルタイム処理も日ごとに正確なものとなってきた今、 ますます期待される分野と言えるだろう。なぜなら、さらに進化し、 それらのシステムが低コストでピアノやエレクトーンなどに導入さ れるようになったら、音楽を楽しむ人にとっては、たいへん喜ばし く、また魅力的なことである。しかし、この自動演奏という研究分 野は、まだまだ課題を抱えているのが現状である。中でも私は、4. で紹介したようなソフトの部分の研究を期待しているのである。 「人間が聞いて違和感を感じない、それどころか人間に感動を与え ることのできる演奏を生成できるシステム」。これこそが、最 終的に自動演奏・伴奏システムに期待されるものであると思う。し かし、人間にも完璧が無いように、おそらくこのシステムにもゴー ルは無いのだろう。それだけに、まだまだ改良しなければならない 問題が出てくるかもしれない。その点においては非常に困難な研究 なのかもしれないけれど、研究分野として大変深く、かつ夢がある ように感じ、私はこの自動伴奏システムに興味を持ったのである。


コンピュータミュージックとは

概要

『コンピュータミュージックとは何か』ということについて、作曲すると き、聞くときの2つの方向から考える。

1:はじめに

コンピュータミュージックとは何かという問いに、私は、コンピュータ ミュージックはコンピュータを使って音楽を作り、鳴らすものだと思った。 しかしこの区別からすると、生楽器の音をサンプリングしたものをパート別 に録音し、同時に再生したものもコンピュータミュージックになってしま う。コンピュータミュージックというものの区別は、作るときに発生するの か、聞くときに発生するのか、もっと他の部分で発生するのか?これについ て、少し考えてみようと思う。

2:ミュージックができるまで

昔から曲というものには、物語に起承転結があるのと同じように、あるス トーリー性がある。そのストーリ性は主に、コード進行や、使われている楽 器や、歌詞などによって形成される。作曲する側は、自分が学んだ一般的な 音楽理論に加え、自分の感性や経験などから曲を作る。

3:コンピュータミュージックができるまで

それに対し、私が講義の中で理解したコンピュータミュージックとは、 『音の切り貼りと、ある法則性を持たせた中での偶然性』というものから なっていると思う。講義の中で、先生は「コンピュータミュージックは、次 に何が来るか予測できないところが面白い」と言っていた。音の切り貼りは 一般的な曲と違って、コード進行などの明確な曲進行ルールが無いために、 予測が付きにくいということが起こると思われる。また、ただ不規則な要素 から音を発生させてるだけでは、音楽性というものがあまり感じられない。 そのために、その不規則に発生するものにある法則性を持たせることによっ て、人間が演奏するものとは違った音楽性が加えられることがある。授業の 中で出てきた、ピアノ音だけのコンピュータによる自動演奏がそのいい例で ある。これらの2つの要素を組み合わせてできたものが、コンピュータ ミュージックだと思う。しかし、最終的に曲を完成させるのは人間なので、 曲にその人の音楽的な感性が加わるのは言うまでもない。

4:想像力で感じる音楽

ところで、昔から十人十色と言われるように、音楽でも聞く人が違えば感 じ方も違ってくるのは当然である。普通の楽曲にはストーリー性があるため に、作曲者が意図した曲の雰囲気を感じやすく、多くの人に共通の印象を持 たれやすい。しかしコンピュータミュージックは、ちゃんとしたストーリー 性が見えにくいため、まさに音の世界そのものになり、どう感じるかはその 人の想像力まかせということになる。そのため、想像力に強く訴えかけるこ とが、普通の楽曲にはないインパクトを与えることができるのではないかと 思われる。

5:映像と音楽の組み合わせによる効果

また、音声と映像を組み合わせることによって、さらに強い印象を与える ことができる。CMソングやドラマの主題歌がヒットするのは、そのいい例で ある。視聴者に、知名度と共に曲のイメージを映像からも植え付けるのであ る。
『ある映画を見て感動し、そのサウンドトラックを買って、家で聞いてみ るとたいしたことがなかった』という経験をしたことがある。これはまさ に、映像と音声との組み合わせによって生まれていた印象が、音楽だけに なったことにより、うすくなってしまったということがいえると思う。

6:終わりに

普通の楽曲は、作曲者が作り出した世界(物語)を聞かせるものに対し、 コンピュータミュージックとは、作曲者の感性による音の組み合わせによ り、人間の想像力にませて聞かせるものであるような気がする。演奏する毎 に違った曲になっても、それはそれで作品であり、その時に何を感じたかと いうことが重要なことではないかと思われる。


MAXによる自動演奏システムの具体的な導入用途についての初歩的考察

[1.はじめに]

98年度の「音像メディア論」において自分の目を引いたのは、 何と言っても「MAX」である。 リアルタイム入力によるMIDI作成はもちろんの事、乱数を 利用するアルゴリズムを用いて、インプロビゼーション的な 音楽をコンピュータ上で作成する事が出来るこのシステムを、 実際に音楽を用いる場において活用できないか。 この発想を基点に、ここではMAXシステムによる ランダム音楽の可能性について、いくつか検証してみたいと思う。

[2.BGM発生装置としてのMAX]

映画など、あらゆる映像メディアに付き物の「BGM」。 このBGMを、MAXを用いて自動的に作曲する事は出来ないだろうか?
BGMの主作用とは、その映像が持つ感情をより強調したり、 その時の映像だけではわからない「この先の展開」を予兆させたり する事にある。逆に、BGMはBGMである限り、それ自体が一つの 音楽作品として結実する必要は全くない。
もちろん、いくつかのシーンで特定のBGMを流す事により、 ある特定の演出効果を狙った例も少なくない(ex.ゴジラの登場シーン等)が、 それは既にBGM自体が一つの「音楽作品」として認知されているが故に、 そのような演出が機能しうるのである。
ここで、MAXを用いる意味が出てくる。
映画を例にとって考えよう。まず、映画会社から直接配給されるフィルムには、 映像とセリフ、そしてMAXを起動させるためのパラメータのみを記録しておく。 そうしておいて、各館にMAXシステムを配置しておく。
この際、同じフィルムを上映する映画館のMAXには、同じアルゴリズム (もしくはそれを複数セーブしたファイル)をロードしておく事を忘れてはならない。 こうしておいて、たとえば「BPM150、キーFm、基本パターンは弦楽四重奏」 というパラメータが映像と同時に読み込まれた場合 (実際にはもう少し細かい設定が必要になるだろうが)、 MAXシステムは映像に合わせて、その場所でしか聞けないBGMを鳴らす事になる。
これにより、映画にライブパフォーマンス的な要素を持たせられるだけでなく、 「二度と同じBGMが聞けない」というプレミア性から、 リピーターが増える事になる、と考えられる。

[3.ライブ補助機器としてのMAX]

ライブパフォーマンスとは、文字どおり人間がパフォーマンスを行なう場であり、 すべてをコンピュータで行なうMAXの出番は、基本的に存在しないように思える。 しかし、人間の演奏を補助する目的でMAXを使う事は可能ではないだろうか?
たとえば、ジャズで良く見られる即興型のセッション。 即興というと、いかにもその場でそれぞれのミュージシャンが思い付いたような 印象を与えるが、実際には、少なくともドラマーはリズムと曲構成に、 ベーシストはコード進行にも縛られている。 この枠内で、それぞれが即興のフレーズを弾く/叩くわけである。 このベースとドラムの部分をMAXに置き換える事は十分可能なはずである。 この概念をそのままジャズに持ち込む訳に行かない。ジャズというジャンルにおいては、 ベーシストやドラマーのパフォーマンスも十分ウリになっているからである。
そこで、たとえば最近のポップス系アーティストのライブに導入してみる。 特に、ロックに近い音楽をウリにしているアーティストの場合、ライブで演奏する曲が、 CDとは微妙にアレンジを変えている場合がある。ライブを少しでも盛り上げる為、 終盤の部分を通常より長く取っているケースが多いのだが、ここで演奏される フレーズ自体はサビの繰り返しなど、単調な部分がほとんどである。
そこで、この部分をMAXによる自動演奏に切り替える。 テンポやコード進行は既に決定済であるから、後はテンポに合わせて、 ドラムの各楽器に対応する信号を出してやればよい。 (もちろん、このシステムはバックバンドの存在しない、 コンピュータ伴奏を前提にしている。)
こうする事によって、たとえば小節群の終わりでドラムが通常のテンポから外れた 叩き方をする、いわゆる「オカズ」の類を事前に入力する手間が省ける。 と同時に、先述の「同じ演奏が二度と有りえない」というプレミア性を持たせる 事が出来る。

[4.音楽練習のためのMAX]

これは、[3.]と少し矛盾する話になるが、MAXの持つ「コンピュータ的な部分」を 利用して、音楽練習に用いる事も考えられる。
「コンピュータ的な部分」とは、命令が来るまでは同じ事を延々と続けるという事。 MAXといえど、そのインプロビゼーションを可能にしているのは乱数発生モジュール であり、その部分がなければただのシーケンサーに過ぎない。 (と切り捨てるには、MAXの他の部分もかなり高機能なので忍びないが。) したがって、乱数の発生頻度と数量変化の部分を変えてやれば、MAXの持つ表情は いくらでも変化しうる事になる。 これを利用して、一定のコード進行に基づくメロディを即興で作らせるのである。
これなら、ともすれば単調になりがちな楽器練習にも身が入ろうというもの。 【注釈:ちなみにこれ、私の幼少時代にピアノの講師から 似たような論理を繰り返し聞かされました】
乱数の発生頻度を変化させる事で、例えばルート音を追いかけるだけの簡単なフレーズ から、それこそキーボードの右から左へ指を滑らせるような、難易度の高いものまで 無数のフレーズ生成が可能となる。
さらに、コード進行自体に法則性がある以上、それをMAXで自動的に生成させる事も 難しい話ではない。練習の難易度をさらに上げる事も可能なわけである。

[5.終わりに]

コンピュータの基本は、「仮想・演算・記憶」である。
「記憶」された無数のアルゴリズムから、乱数に応じて瞬時に次の音を「演算」し、 単なるシーケンサーでは終わらない、ミュージシャンそのものの存在を「仮想」する。 MAXは、コンピュータの持つ本質を音楽という分野で最大限に引き出した、 次世代音楽工房ともいうべき存在である。
「2度と来ない今を買う」という、某クレジットカード会社のコピーがあるが、 音楽とは、元来時系列による音の羅列であり、2度と再現出来ないものであった。 MAXによるインプロビゼーションに対し自分は、 音楽というものの本質を改めて世に問うだけの能力がある、と期待する。


「講義の感想」集

講義前に思っていたものとは少し違ってはじめは戸惑ったけど、 それなりに楽しく受講することができた。ただ一つ一つの話題が 流れていくのが早かったような気がした。

この講義でコンピュータミュージックというものに初めて触れました。 必ずしも自分の好みにあっていたわけではないが、大音量で聞きたいと 思うものもありましたもありました。
またコンピュータによる作曲など、今の音楽におけるコンピュータの 重要度を少しでも知ることができたのはよかったと思います。 不満なところも少しはあったけどおおむねいい講義だったと思います。 レポートを書くときインターネットでコンピュータミュージックの分野 を検索すると長嶋先生の名前がよく出てくるのには驚きました。

最初にカオスという言葉を聞いたとき、何のことか見当もつかなかったが、 その不規則性質と素数値になる規則性の持つ面白さにすごく興味を持った。 その不規則性がほかに何か利用できないか。その性質からは利用し難いも のであるが、何か探したいと思う。
講義の感想としては、パフォーマンス作品によっては、興味の無い物もあ ったが、作品のほとんどが始めて見たり聞いたりするものだったので、 素直に楽しめたと思う。カオスのほかには、触れずに音を出すテルミンにも 興味を持った。

この講義にを受講していろいろなことを知ることができてよっかたと思い ます。このような知識が生かされるかどうか別として大変興味深いものでし た。どうもありがとうございました。

温かくなった部屋で音楽を長時間聴くと睡魔に襲われましたが(^^; 短期間のうちに多くの事を講義で学びました。
とても充実していた講義だったと思います。

この授業は、一元的な見方でいえば「今までの常識にとらわれない楽器アプローチと 音楽理論を覆した作品を次々に紹介する」物であったといえよう。 それは非常に真新しいものであり、「常識とは覆すものである」事を旨とする 情報社会学科学生としては、そのアプローチもまた大変参考になった。
ただ惜しむらくは、レポートの内容設定である。 極端な言い方をすれば、ほとんど「論理」の部分に触れる事のなかったこの授業に 「考察」を求められる事などないと考えていたし、 実際、テープ音楽に最後までなじめなかった自分にとって、「作品の考察」など およそ不可能に近いと感じた。 この点、来年以降の授業においては、事前のMLできちんと説明する必要が あるように感じられる。

講義を通して、コンピュータミュージックへのイメージが変わった。 音楽情報科学という言葉も聞いたこともなかったが、なんとなく漠然 としたイメージはできたような気がする。講義では、今までに見たこ とのなかった研究分野が垣間見れてよかった。 ありがとうございました。

今回の授業では、とても音楽に興味を持つことができた。 ランダム演奏などもよくわからないがおもしろく感じることも できたし、よい経験をえることができる授業であったと思う。

4日という短い期間での講義を受けて非常に強く残っていることは とにかく気分が悪くなることが多かったということだ。映像だけな らそう悪くなることもないのだが音声や機械音が続いて流れてくる ととても苦しかったのを覚えている。その1点を除けば、すごく充 実した講義だったと思う。あまり興味の持てそうにない分野かなと 思っていた音像の世界だが、自分の手で音を作り出したりまたそれ を加工したりして、多種多様な音や曲を作ることができると知り音 楽とコンピュータの世界にすこし興味を持てたような気がした。

集中講義の4日間はデモンストレーションのコンピュータミュージック に少々頭を抱える時もあった。おどろおどろしいものから頭が痛くなりそ うなもの、様々であったが、自分の中での新しい音楽に、自分自身がつい ていけない時が多々あった。しかし、先生の「コンピュータミュージック は先が読めないから面白い」という言葉はずっと頭の片隅にあった。自分 の中では“訳の分からない音楽”だが、逆に考えてみれば確かにその通り だ。訳が分からない、つまり先が見えない、それが面白いのか、と思った。 集中講義は4日間。しかし、色々なコンピュータミュージックにもっと長 く接すれば、先が読めない面白味を実感できるのではないか、と思った。
自分の中での新しい世界を垣間見た4日間だったと思う。

この講義を通して、音楽情報科学の世界というものを以前より身近な ものに感じることができたように思う。一口に「コンピュータ音楽」 といっても本当に色々な種類と方法があるということもわかった。イン ターネットで検索してもこれは一目瞭然である。しかも現在ではパソコ ンのソフトで自在に音響が生成できるようになり、専門家とアマチュア の区別なく自由な音楽を追求できる環境になりつつある。理想的な環境 であると思った。また、最も印象的な映像の一つに尺八を用いた演奏が あったが、これは日本の伝統的な楽器をより身近に感じさせるきっかけ になる。尺八に限らず、古来の民族音楽をコンピュータを媒介にして掘 り下げることで、若い世代に様々な文化を継承させるといった役割も果 たせるのではないかと感じた。

感想:良かった点
・ メーリングリストを講義に取りいれた点。皆が何を考えているのかが分かった。
・ 資料が豊富で、分かり易かった。
・ 感想レポートを毎回提出したので、講義に身が入った。
・ 休憩のタイミングが良かった。
ここをもう少しという点(提案)
・ メーリングリストをもっと活用してはいかがでしょうか。
・ 板書が取り難かったです。
・ 講義の最後に感想(興味を持った話題について書けという 設問)を書こうとしても詳しく思い出せないので、参考資 料を見せるたびに2、3分時間を設けて欲しかったです。

以前の私にとって、コンピュータミュージックといえばDTMの様なものし か思い浮かばなかった。コンピュータに向かい、シーケンスソフトで地道 に打ち込む。そのような想像しかもっていなかった。
しかし、講義の後では考え方がまったく違っていた。シーケンスソフトだ けがコンピュータミュージックではなかったのだ。「音」を一つの情報とし てとらえ、取り込み、加工する。MAXなどで音を創造することもできる。 そうすることにより、「音」はしだいに「音楽」へと変わるということがわか った。この経験をこれからするであろう研究に生かすことができたらいい と思う。

今回の講義では現代音楽というもの始めて聞いた。はじめはとてもび っくりした。何かとても恐いイメージがした。自分が想像していたもの とはかなり違った。しかし、何曲か聞くに連れて現代音楽になれてきた と思う。しかし、恐い印象は最後まで持っていた。

今回の講義では、通常学校で行われている講義とは異なり、コンピ ュータを使って行われたものだったので、自分が情報学部にいるような実 感が湧くことが多かった。このようにパソコンを使って、専門的なことを 行う講義は少ないので大変貴重な経験をすることができたと思います。

人間が音楽を構築したり、解析するにおいては、 自分の耳と感性が一番頼るべきところだと思う。作曲や耳コピーにおい て、ダイアトニックコードから外れるようなコード進行が出てきたとき に最も信頼すべきは自らの「耳」なのである。その感性やセンスを、論 理的に解明できれば、音楽情報処理はさらなる境地へと踏み込むことが できると思う。しかし、それは天に唾するような行為であるように思わ れる。やはり、最終的に言えるのは、音楽で忘れてはならない最も大事 なことは、自身の感性であるということである。
講義を通じて感じたことは、音楽には制限がないのだ、ということで ある。人の受け止め方はさまざまだが、自分の信じた音楽を追求するこ とは、誰にも止めることができないということである。講義で紹介され るもののほとんどが未体験のことであり、かなり刺激を受けた。

今回の音像メディア論という講義で,期待していたものと違うものであったと いう思いがまずひとつ。逆に,コンピュータミュージックの奥の深さに思い知 らされたというのがひとつ。得るものも多かったがちょっと期待はずれだった と思うのは贅沢だろうか?単純に音楽が好きだから,という考えでこの講義を とったが,それ自体はよかった。ただ内容的に(ほんとにこれが音楽なの?) と正直言って辛めな感想を抱いた。もうちょっと,大衆的な音楽を聴かせて欲 しかった。ただ初めて経験(?)するような音楽を聴けたことは非常にためにな った。

この講義を履修することにした理由は、その時まだシラバスで講義内容を読 んでいなかったし、長嶋先生からのメールもまだ届いていなかったので、「音 像メディア」という言葉がなんとなくかっこよかったから履修することに決め たわけですが、実際長嶋先生から講義に関するメールが届くようになると、自 分の想像していた講義とぜんぜん違っていたので正直言って「面倒くさそうな 講義をとってしまった。」と思いましたが、講義が始まってみると、先生の講 義に対する準備や熱意が伝わってきて、また、他の講義と違った講義内容だっ たので、少しずつ日を追うごとに興味がわいてきたので講義中にあまり眠るこ とがなかった。

たった4日間でありましたが、充実した時間を過ごさしてもらいま した。あの授業の質は多大な知識と経験、生徒側からの視点などさ まざまな思考の産物だと思います。授業を受ける前は、Computer Musicという聞きなれない言葉に戸惑いがありましたが、今はその 領域の広さに戸惑いを感じています。と同時に強い関心も生まれま した。これもひとえに長嶋先生のおかげです。ありがとうございま した。

今回集中講義で、コンピュータミュージックに関して勉強したわけだが、私 は文系であるし、コンピュータをバンバン使えるひとでもなかった。そのた め、授業自体は難しかった。分からない言葉もたくさん出てきた。どこまで 理解したかと言われれば、疑問だらけである。しかし、今回の講義で私の知 らなかった世界を見せてもらった。そして、その世界はとても興味深かった。 私は美術というか芸術というものが好きだ。美術館などにも一人でよく行く。 そういう私にとって講義で見たビデオは楽しかった。知らない世界をのぞけ たことが今回の講義に出席した一番の成果であるといえる。

講義前、この講義はコンピュータを利用した音楽の解説だろう と漠然と考えていたために、正直、講義初日から、驚きの連続であ った。私には想像もできなかった、初めての世界を見た。けれども、 もともと音楽に対する興味は人一倍あった(つもり)ので、その新 しい世界に非常に興味を持つことができた。中には、計算式等が登 場し、社会科である私には、ちんぷんかんぷんである場面もあった。 詳しいシステムについてはいまだに難しく、よく分かっていないが、 新しい世界を体験できたという点では、非常に満足のできる講義で あった。また、私自身マルチメディアには非常に興味があり、今ま では視覚的なことばかりを勉強していたが、これからはさらに新し い視点で考えていけるようなった思う。その点においても、たいへ ん有意義な講義だった。

講義を受ける前は、コンピュータミュージックはゲームの ミュージックのようなものだと考えていたので、最初聞いた時は 「何だこれは?」と思いました。しかし、コンピュータミュージックは 実際にある楽器を演奏したものを加工したり、自分で作った楽器を演奏したりと、 これはダメ、ということがないので自由にできて良いと思います。
長嶋さんのお話を聞いていると、いかにコンピュータミュージックが好きか ということがビシビシ伝わってきました。ここまで没頭できる何かがある というのは幸せなことですね。

私は、長嶋先生の集中講義を受けるまではコンピュータミュージックとい えば、DTMのことであり、集中講義もそのDTMの延長に関しての内容だ とばかりにてっきり思っていたのだが、実際にはそうではなく、いい意味で 裏切られたと思う。おかげで、コンピュータミュージックに関する自分の幅 を広げられたと思うし、何よりこの4日間は刺激的な日々であった。特に、 初日の音楽とも効果音とも似つかないなんとも奇妙な音に始まり、センサを 使った表現、コンピュータによるリアルタイム採譜など、コンピュータを駆 使して音に対する様々なアプローチの研究がなされていることを知って、コ ンピュータの無限の可能性を改めて再認識した。まだまだこの分野の研究は 進化していっているので、今後もその動向に注目していきたい。
4日間、ありがとうございました。

たくさんの変わった曲が聴けたり、ビデオでいろんなパフォーマンスが見れて楽 しかった。あっという間に講義の時間が過ぎている感じがした。少し分かりにくい部 分もあったけど、大変納得いく講義を受けることができた。

集中講義ということもあり、さわりだけをさらっとやった感じで、どうも しっくりくるものに出会えなかったというのが、正直な感想です。 しかし、コンピュータミュージックの奥深さは理解できました。

講義形式は,実例の提示が中心で,理論中心の講義よりは分かりやすく楽し かった.舞台上でのパフォーマンスと音楽の組み合わせは,物珍しいというか 音楽の新しい形なのかなと思ってみていた.ただ,少し理解しがたい世界であっ た...
コンピュータ・ミュージックは音楽とイメージが近いものである感じがした. 例えば,映画音楽であるとか,映像効果に使われている音楽の様な感じだった.

私は最初の挨拶でも書いたように、コンピュータを使った音楽というも のが良くわかりません。しかし講議を受けてみて、大変でしたが先生のコ ンピュータのみではなくあらゆる音楽に対する教養の深さに驚き、自分の これまでに学んだ知識がとても少ないことがわかり、もっと多くを学びた いと思うようになりました。どちらかというと音楽よりは映像の方がまだ わかることも多く、講議の中で少しだけ取り上げたグラフィックの話や、 ビデオ中のコンサートで、音楽と連結して変わる映像など、とても面白く 感動しました。3日間と少ない中で、多くの映像や実際にコンピュータを 使ったデモなどを見ることができ楽しい講議でした。

この講義を通して、今まで知らなかった領域について、そ の現状や理論に至るまで幅広く知ることができたと思う。
趣味としている作曲に対し、従来コンピュータを使ってき た手法が、ここでアルゴリズム作曲にガラッと変わってしま うというようなことは有り得ないとしても、この講義を通じ て新たに知った要素を、自分の活動の中に組み入れていけた らと考えている。

はっきりいって期待はずれでした。ミュージックををやると聞いていたのでもっ と楽しいものかと思ってましたが、けっこう技術的、理論的なことも多く、なに よりコンピューターミュージックが私にはまったく理解できなかった。あまりに 前衛的、芸術的過ぎるのか凡人の私にはさっぱりわかりませんでした。聞いてい て楽しくないし。しかもなぜか気味の悪い、暗い音楽がおおく、もっと楽しい音 楽が聞きたかったです。

レポートを書きながらあらためて講義を思い出すと、多くの作 品を見せてもらえたことが、非常によかったと感じている。理論 や、黒板だけの講義では理解しきれなかったであろう内容も、具 体的に見ることで、自分の中で消化できたのではないかと考えて いる。特にパフォーマンスに興味を持ったが、これもビデオで実 際に演じている様子を見れたことで、自分の中に強く印象に残っ たと思っている。
講義全体に関しては、話に一貫性があって、理解しやすいもの であったと感じている。集中講ということで、どうしても短い時 間で終わってしまったような気もしているが、コンピュータミュ ージックの世界の一端を知るには、十分な講義であったと感じて いる。

ビデオや実演でやっていることはおもしろそうだと思うが、理論や裏づ けといったことになると、理解しにくい所があった。しかし、情報社会学 科(文系)にとって、久しぶりに情報学部らしい講義内容であったと思う。 このように文理共通で学べる機会を与えてくれたことにはとても感謝して いる。

今回の授業は経験的に非常に良かったと思う。今まで触れられなかった コンピュタミュージックの世界を垣間見ることができたからである。コ ンピュータミュージックの作成のされ方や発表の場、実際のいろいろな 作品の例など見れてとてもいい経験になった。
しかし、授業として考えると4日間それほど変わり映えがしなかったので 3、4日目には少々退屈してしまった。やはり日毎にもうちょっと明確に テーマをわけてもらえると良かったと思う。

この講義を受け、コンピュータミュージックに対してのイメージが かなり変わりました。初めはもっと聞き慣れている音楽、もっとメロ ディがあるものだと思っていました。講義の形態がそうでないという こともあったと思います。ミュージックというより、サウンドであっ たと感じました。もっと、ミュージック的なものを取り上げて欲しか ったです(少しはありましたが)。
講義を受け、MAX、MIDI、シーケンスなどの言葉が、耳に焼 きついてしまいました。
講義の時の感想にも書きましたが、デモだけでは、ただ様々な音が 様々な方法で表されていることは理解できても、なぜそのようになる のか、それが何を意味するのかがよく理解できませんでした。もっと 理論的なものが理解できたら、よりMAXなどを理解できたと思いま す。

正直,コンピュータミュージックを聴くのは苦痛だった。上のレポート でも書いたように,デジタルから作る音より,今まであるアナログをデ ジタル的に理解するということに興味がわいたのも,そのためだと思う。 しかし,未知の音楽に触れることが出来たのは非常によい経験になった。

次回生徒に作品を聞かせる機会があるならば、もっとなじみやす い作品から披露することをお願いしたい。一度鳥肌が立ってしまうと、なか なかそのイメージは抜け出せないものである。怪しい宗教団体の集会の中で 洗脳されているような雰囲気、気分であった。

「現代音楽は気持ち悪い」という意見が多かったようだったが、個人的に は新しい音楽の形に出会えた気がして面白かった。授業の内容としても、 実演が多かったので退屈せずに受講できた。

音像メディア論の講義は今までにない物だったと思います。 今までの講義は知識を教られるだけでしたが、この講義は先生が 好きな物を学生に教える、極端に言えば先生の趣味を学生に自慢 していた講義だったように感じます。
この講義の中で、現代音楽を初めとするさまざまな新しい世界を 知ることが出来てよかったと思います。ありがとうございました。

講義の一つ一つの内容は興味深いものだったのですが、集中講義を終えてみ ると、内容に統一性がなく、達成感があまり感じとれなかった気がします。あ と、MAX実習に参加させていただきました。あれだけ奥の深いアプリケーショ ンだと修得するのにかなりの時間を要すると思います。卒業研究で、MAXを使っ て、一曲作品をつくって終わり…と言うことは無理ですね。

私は、今回の集中講義を受講して、今まで知らなかっ た世界を見たような気がした。専門用語が次から次へと出て来たこ とには多少戸惑ったが、コンピュータが創り上げていく音楽の良 さ・神秘的なサウンドを知ることができ、貴重な体験ができたと感 じている。いままで受講してきた講義では、あんな大掛かりな器材 を準備してくれる先生はいなかった。準備やセッティングにかなり の時間と労力を必要としたと思うが、この場を持って感謝したい。

DTMを少しやっていたので、先生のDTMに対する否定的な意見に、正直いっ て最初反感を覚えた。でも、講義の中でコンピュータミュージックとはとい うことについて考えることで、DTMとコンピュータミュージックとの違いがな んとなく分かって、先生のDTMに対する意見にも少しだけ共感できた。音楽に も、いろんなものがあるんだなぁと思った。
また、音楽制作において、音楽を発進する側を研究するだけでなく、聞く 側のことも研究する必要があるのでないかと思った。いろんな音を聞いたと きに、人間の脳でどのようなことが起こっているかということを知ること も、興味深いと思った。

もっといろいろな曲を聞きたかった。 ビデオもいっぱい見たかった。