大学出版部協会

 

歴史・テクノロジー・アートコンピュータ音楽

コンピュータ音楽 歴史・テクノロジー・アート THE COMPUTER MUSIC TUTORIAL

B5判 1074ページ 並製
価格:14,630円 (消費税:1,330円)
ISBN978-4-501-53210-9(4-501-53210-6) C3055
奥付の初版発行年月:2001年01月 / 発売日:2001年01月中旬

内容紹介

コンピュータ音楽の理論・応用・心理学まで解説

 コンピュータ音楽の起源から今日様々な試みと歴史的背景,合成や信号処理などの理論的基礎と,音楽家インタフェースやMIDIといった実際の応用,音響心理学までを,詳細な記述と約650点の図表で,描ききったデジタルオーディオ「聖典」の完訳!

前書きなど

■日本語版読者のために
 電子音楽は新しいメディアであるとよく言われる.
しかし,電気的に生成した音による最初のコンサート (1906 年,ニューヨーク市 Telharmonic ホール) が 百年近くも前に開かれていることを考えると,電子音楽が新しいメディアという見方はあまり正しくないだろう.
電子音それ自体にはもう新規性は無くなってしまった.電子音楽を作るための大がかりな機械装置や設備の操作は,小さな装置を使った半ば趣味のような作業に置き換えられた.
 そして最も重要なことは,先駆的な作曲家たちがいくつかの金字塔的な仕事を残したことである.その仕事が,これから我々の進むべき道を指し示している.
 数十年にわたる研究室の時代を経て,いま,電子音楽を創造する「黄金時代」到来の条件が揃いつつある.多くの要素がこの時代の流れに味方している.
 新しいシンセサイザ,ソフトウェア,オーディオ機器を生み出す様々な産業が誕生し成長した.その商業的な成功の一方で,民族楽器やシェアウェアとい
う活気あるもう一つのマーケットもそれを補うように発展している.
 サウンドを編集したりミキシングしたりするためのツールが,それ無しではすまない位に作業を効率化する一方で,価格は急激に低廉化した.単純なコンピュータ音楽スタジオを建設するコストは,今や伝統楽器の価格を下回っている.そして,過去のどんな時代よりも,多くの電子音楽に関する書籍が入手可能である.
 この時代の流れは,美学的に深淵なことも示唆している.それは Edgard Varの夢であった「サウンドの解放」の実現を凌駕するほどである.
 つまり,いかなるピッチスケールそしてハーモニーの代数でも作り出し,波形の無制限な選択とそれを変形する数え切れない手法を提供し,音の動きを大域的,局所的に彫刻する能力を与え,仮想空間や実空間に形を射影する可能性さえも生み出すことなどである..
 技術は人間の身体動作の及ぶ範囲を拡大する.ソフトウェアというメディアを用いると,微少時間のサンプルや細粒 (grain) から大きな音のかたまりまで,以前では操作できなかった様々な時間スケールの音を我々の手で直接に形作ることができる.
 インタラクティブシステムとは,作曲過程において,サウンドや様々な抽象レベルを身体動作で直接制御するシステムのことである.こうして増大した可能性がさらなる挑戦をもたらす.金鉱は到る所にある.しかし,我々の宝の地図はまだ不完全であり,地図作成のためのツールはまだ開発途上である.その新領域があまりに巨大であるため,最も現実的な作曲方法論としては,探究的なアプローチにならざるを得ないだろう.
 美学的可能性に満ちた新しい広大な領域だからと言って,それが持つ可能性が普遍的に受け入れられるとは限らない.実際,世の中の音楽に関する議論や研究資金の流れは,保守的な考え方に支配されている.いくつかの国々における文化の傾向は,拡大ではなく,危険な排除であったりする.黙々とインクを楽譜の上に染み込ませる作業としての古典的な作曲行為は,依然として神聖なものと見なされている.古典的な作曲行為は心地良く身を委ねる行為であり,伝統的な合奏や演奏に安住することである.そのために,せっかく若い頃に電子的メディアでの実験を経験したことのある年長の作曲家たちでも,それを拒んでしまった.マスコミにとっても,電子音楽はもはやニュースではない.むしろ,過去の響きさえ持っている.
 このような無関心がある一方で,強力な美学的技術的なエネルギーが,コンピュータ音楽というメディアが持つ創造性の限界を押し広げ続けている.その結果,この真剣な試みと,聞く耳を持たない保守的な音楽家,研究機関,文化的有力者たちとの間にあるギャップが広がってきている.
 多くの文化的な問題は教育の問題に帰着される.さらに技術と音楽に関する教育を積むことで,シーケンサやサンプリングの表層的知識レベルを越えて,敢えて冒険に挑もうとする音楽家が出現することであろう.ところが作曲家は巨匠になるのが第一義なので,作曲メディアとしての電子スタジオを正確にマスターするのは困難が伴なう.では,そのメディアをマスターするのに必要な知識をどうやって獲得すれば良いのだろう?
 この本がその問題に対する直接的な回答である.私はこの素晴らしい日本語版に誇りを感じ非常に喜んでいる.
 本書の翻訳に携わったコンピュータ音楽の専門家のお名前を以下に挙げる (五十音順,敬称略):青柳龍也,小坂直敏,後藤真孝,引地孝文,平田圭二,平野砂峰旅,堀内靖雄,松島俊明.私は彼らに深く感謝したい.これ以上適任の方々はいなかったし,またこれ以上真剣に翻訳してくれたチームもなかった.この記念すべき翻訳プロジェクトを責任もって完遂した彼らの勇気を讃えたい.
 この日本語版では,オリジナルの英語版に含まれていた誤植や間違いの多くが修正されている.Jean de Reydellet の翻訳になる縮刷フランス語版 (タイトル L'audionum rique) が 1998 年 Dunod Editions 社 (パリ) よりすでに出版されているが,日本語版で修正された誤植や間違いのいくつかは,このフランス語版でも修正されている.日本語版の翻訳チームは修正を加えるだけでなく,さらに文章や図表も改良してくれた.そのことも私は大変に嬉しく思っている.
 オリジナル英語版 (第 1 版) が完成した以降の重要な状況変化として,インターネットの広範な普及が挙げられる.そこでは,ストリーミングなどの新しい技術が生み出されている.幸いなことに,インターネットは自己記述的なメディアである.同時に,インターネットによって新しい技術成果が,サウンド断片の合成・変形にすぐ利用可能になるということも,もう一つの方向性として考えられる.私は""""Microsound""""という新しい本 (The MIT Press 社刊) で,このような新しい研究分野を紹介しているので,そちらも手に取ってご覧頂きたい.

2000 年 2 月サンタバーバラにて Curtis Roads


目次

第Ⅰ部 基本的な概念
第1章 デジタルオーディオの概念 John Strawn との共著
 1.1 基礎知識:デジタルオーディオ録音の歴史
  1.1.1 実験的なデジタル録音
  1.1.2 デジタル音の大衆化
  1.1.3 音楽家のためのデジタルサウンド
  1.1.4 デジタル多重トラック録音
 1.2 音信号の基礎
  1.2.1 周波数と振幅
   1.2.1.1 時間領域における表現
   1.2.1.2 周波数領域における表現
  1.2.2 位相
  1.2.3  位相の重要性
 1.3 音のアナログ表現
 1.4 音のデジタル表現
  1.4.1 アナログからデジタルへの変換
  1.4.2 二進数
  1.4.3 デジタルからアナログへの変換
  1.4.4 デジタルオーディオ録音とMIDI録音
  1.4.5 サンプリング
   1.4.5.1 アナログ信号の再構成
  1.4.6 エイリアシング(折り返し)
  1.4.7 サンプリング定理
   1.4.7.1 理想的なサンプリング周波数
  1.4.8 アンチエイリアシングとアンチ・イメージング・フィルタ
  1.4.9 位相補正
  1.4.10 量子化
   1.4.10.1 量子化雑音
   1.4.10.2 低レベルの量子化雑音とディザ
   1.4.10.3 変換器の線型性
 1.5 デジタル・オーディオ・システムのダイナミックレンジ
  1.5.1 デシベル
  1.5.2 デジタルシステムのダイナミックレンジ
 1.6 オーバーサンプリング
  1.6.1 複数ビットのオーバーサンプリング
  1.6.2 1ビットのオーバーサンプリング
 1.7 デジタル・オーディオ・メディア
 1.8 音合成と信号処理
 1.9 まとめ
第2章 音楽システムのプログラミング Curtis Abbottとの共著
 2.1 プログラミングは問題解決である
 2.2 プログラミング言語の基本的な概念
  2.2.1 プログラムの実行
  2.2.2 フローグラフと構造化プログラミング
  2.2.3 手続き
  2.2.4 代入
 2.3 制御構造
  2.3.1 分岐
  2.3.2 繰返し
 2.4 データ構造
  2.4.1 データ型
  2.4.2 型宣言
  2.4.3 型を構成するための操作
   2.4.3.1 配列
   2.4.3.2 レコード
   2.4.3.3 ポインタとその問題点
  2.4.4 より抽象的なデータ型
   2.4.4.1 オブジェクト指向プログラミング
   2.4.4.2 継承
  2.4.5 高度に抽象化されたデータ型
 2.5 プログラミング言語について
  2.5.1 関数型プログラミング
  2.5.2 論理型プログラミング
  2.5.3 LispとPrologのプログラミング例
  2.5.4 制約プログラミング
 2.6 まとめ

第Ⅱ部 音合成
第3章 デジタル音合成入門 John Strawn との共著
 3.1 背景:デジタル音合成の歴史
  3.1.1 Music I と Music II
  3.1.2 ユニットジェネレータの概念
   3.1.2.1 Music N言語
 3.2 固定波形のテーブル参照合成
  3.2.1 周波数の変更
  3.2.2 デジタル発振器のアルゴリズム
 3.3 テーブル参照雑音および補間発振器
 3.4 時変波形合成
  3.4.1 エンベロープ,ユニットジェネレータ,パッチ
   3.4.1.1 合成楽器のためのグラフィック表示
   3.4.1.2 パッチでのエンベロープの使用
 3.5 ソフトウェア合成
  3.5.1 楽器エディタと合成言語
  3.5.2 合成計算上の必要条件
  3.5.3 非実時間合成
  3.5.4 音ファイル
 3.6 実時間デジタル合成
 3.7 非実時間合成と実時間合成との比較
 3.8 楽音の具体化
  3.8.1 音オブジェクト
  3.8.2 加算合成の具体化問題の例
  3.8.3 音楽家のインタフェース
   3.8.3.1 音楽入力装置
   3.8.3.2 演奏ソフトウェア
   3.8.3.3 エディタ
   3.8.3.4 言語
   3.8.3.5 アルゴリズム作曲プログラム
   3.8.3.6 音分析
 3.9 まとめ
第4章 サンプリングと加算合成
 4.1 サンプリング合成
  4.1.1 ミュージックコンクレートとサンプリング:背景
  4.1.2 ルーピング
  4.1.3 ピッチシフト
  4.1.4 ピッチシフトのないサンプルレート変換
  4.1.5 リサンプリングの問題点
  4.1.6 サンプラのデータ削減とデータ圧縮
   4.1.6.1 データ削減
   4.1.6.2 データ圧縮
  4.1.7 音ライブラリ
  4.1.8 サンプラの評価
  4.1.9 音符から音符への遷移のモデル化
 4.2 加算合成
  4.2.1 加算合成:背景
  4.2.2 固定波形加算合成
   4.2.2.1 位相について
   4.2.2.2 部分音の加算
  4.2.3 時変加算合成
  4.2.4 加算合成に必要な演算量
  4.2.5 加算合成の制御データ源
 4.3 加算分析/再合成
  4.3.1 加算分析/再合成の音楽的応用
  4.3.2 加算合成のための音分析手法
  4.3.3 分析/再合成のデータ量の削減
   4.3.3.1 折線近似
   4.3.3.2 主成分分析
   4.3.3.3 スペクトル補間合成
   4.3.3.4 スペクトルモデル合成
  4.3.4 ウォルシュ関数合成
 4.4 まとめ
第5章 多重波形テーブル合成,地表面軌道合成,細粒合成,減産合成
 5.1 多重波形テーブル合成
  5.1.1 波形テーブルクロスフェード
  5.1.2 波形積算合成
 5.2 波形地表面合成
  5.2.1 地表面と軌道
  5.2.2 波形地表面合成からの予測可能な波形の発生
  5.2.3 周期軌道
  5.2.4 時変軌道
 5.3 細粒合成
  5.3.1 細粒合成:背景
  5.3.2 音の粒子
  5.3.3 粒子生成に基づく音源
   5.3.3.1 高レベル細粒構造
   5.3.3.2 フーリエ/ウェーブレット格子およびスクリーン
   5.3.3.3 ピッチ同期細粒合成
   5.3.3.4 準同期細粒合成
   5.3.3.5 非同期細粒合成
   5.3.3.6 サンプル音の時間細粒化
  5.3.4 細粒合成の評価
 5.4 減算合成
  5.4.1 フィルタ入門
  5.4.2 フィルタの型と周波数特性
  5.4.3 フィルタのQとゲイン
  5.4.4 フィルタバンクとイコライザ
  5.4.5 くし型およびオールパスフィルタ
  5.4.6 時変の減算合成
 5.5 減算分析/再合成
  5.5.1 ボコーダ
 5.6 線形予測符号化
  5.6.1 線形予測とは何か?
  5.6.2 LPC分析
   5.6.2.1 フィルタ推定
   5.6.2.2 ピッチおよび振幅分析
   5.6.2.3 有声/無声判定
   5.6.2.4 分析フレーム
  5.6.3 LPC合成
  5.6.4 LPCフレームデータの編集
  5.6.5 標準LPCの音楽への延長
  5.6.6 LPCの評価
  5.6.7 二重音素分析/再合成
 5.7 まとめ
第6章 変調合成
 6.1 双極および単極信号
 6.2 リング変調
  6.2.1 負周波数
  6.2.2 RMの応用
  6.2.3 アナログリング変調と周波数移動
 6.3 振幅変調
  6.3.1 AM合成器
  6.3.2 変調指数
 6.4 周波数変調
  6.4.1 背景:周波数変調
  6.4.2 周波数変調と位相変調
  6.4.3 単純FM
  6.4.4 C:M比
  6.4.5 変調指数と帯域幅
  6.4.6 反射側帯波
  6.4.7 FM式
  6.4.8 ベッセル関数
  6.4.9 FMのデジタルでの実装
  6.4.10 単純FMの応用
  6.4.11 指数FM
  6.4.12 分析とFM
 6.5 多重キャリアFM
  6.5.1 MC FMの音楽的応用
 6.6 多重モジュレータFM
  6.6.1 並列MM FM
  6.6.2 直列MM FM
  6.6.3 MM FMの音楽的応用
  6.6.4 フィードバックFM
  6.6.5 背景:フィードバック発振器
  6.6.6 1発振器フィードバック
  6.6.7 2発振器フィードバック
  6.6.8 3発振器間接フィードバック
 6.7 位相ひずみ
 6.8 ウェーブシェーピング合成
  6.8.1 単純ウェーブシェーピング合成器
  6.8.2 シェーピング関数の例
   6.8.2.1 ウェーブシェーピングスペクトルの振幅感度
   6.8.2.2 チェビシェフシェーピング関数
  6.8.3 振幅正規化
  6.8.4 ウェーブシェーピングのバリエーション
  6.8.5 可動ウェーブシェーピング
  6.8.6 分数ウェーブシェーピング
  6.8.7 後処理およびパラメータ推定
 6.9 一般的な変調
 6.10 まとめ
第7章 物理モデル合成とフォルマント合成
 7.1 物理モデル合成
  7.1.1 物理モデル合成の効果
  7.1.2 物理モデルの背景
  7.1.3 励起と共振
  7.1.4 古典的物理モデルの方法論
   7.1.4.1 微分方程式
   7.1.4.2 振動弦の力学モデル
   7.1.4.3 面と立体の振動に対する力学モデル
   7.1.4.4 励起に対する力学モデル
  7.1.5 モード合成
   7.1.5.1 MOSAIC: モード合成の実用的実装
  7.1.6 McIntyre, Schumacher, Woodhouse の合成法
   7.1.6.1 非線形励起と線形共振
   7.1.6.2 MSW合成の概要
  7.1.7 ウェーブガイド合成
   7.1.7.1 打弦のウェーブガイドモデル
   7.1.7.2 一般的なウェーブガイド楽器
   7.1.7.3 ウェーブガイドクラリネット
   7.1.7.4 ウェーブガイドホルン
  7.1.8 物理モデル合成の入力デバイス
  7.1.9 物理モデル合成の評価
 7.2 物理モデルの音源とパラメータ分析
  7.2.1 パラメータ推定実験
   7.2.1.1 音源分離
  7.2.2 高次スペクトル分析
 7.3 KARPLUS-STRONG(撥弦とドラム)合成
  7.3.1 撥弦
  7.3.2 ドラム音
  7.3.3 減衰時間の伸長
  7.3.4 KSアルゴリズムの拡張
 7.4 フォルマント合成
  7.4.1 フォルマント波形関数合成とCHANT
   7.4.1.1 FOF合成の基礎
   7.4.1.2 FOFの解剖学
   7.4.1.3 FOFパラメータ
   7.4.1.4 CHANTプログラム
  7.4.2 FOF分析再合成
   7.4.2.1 共振モデル
   7.4.2.2 MOR変換
   7.4.2.3 FOFとのスペクトル包絡のマッチング
  7.4.3 VOSIM
  7.4.4 VOSIM波形
  7.4.5 窓関数合成
 7.5 まとめ
第8章 波形セグメント合成,図式合成,及び確率合成
 8.1 波形セグメント技術
  8.1.1 波形補間
   8.1.1.1 線形補間の式
   8.1.1.2 発振器とエンベロープ発生器における補間
   8.1.1.3 GEN関数における補間
   8.1.1.4 補間合成
  8.1.2 SAWDUST
  8.1.3 SSP
  8.1.4 命令合成
 8.2 図式合成
  8.2.1 音合成における図の利用:背景
  8.2.2 UPICの操作
   8.2.2.1 初期のUPIC
   8.2.2.2 実時間UPIC
  8.2.3 MIDIを用いた図式合成
  8.2.4 図式合成の評価
 8.3 雑音変調
  8.3.1 雑音に関する議論
  8.3.2 雑音変調されたAMとFM
  8.3.3 ランダムシェーピング関数によるウェーブシェーピング
 8.4 確率波形合成
  8.4.1 動的確率合成
   8.4.1.1 GENDY
 8.5 まとめ
第Ⅲ部 ミキシングと信号処理
第9章 音のミキシング
 9.1 ミキシングとダイナミックレンジ
 9.2 非実時間のソフトウェアミキシング
  9.2.1 スクリプトによるミキシング
  9.2.2 オブジェクト指向ミキシング
  9.2.3 グラフィカルミキシング
  9.2.4 ソフトウェアミキシングの評価
 9.3 ミキシングコンソール
  9.3.1 ミキサの特徴
  9.3.2 入力部
  9.3.3 出力部
  9.3.4 AUXリターン部
  9.3.5 トークバック部
  9.3.6 モニタ部
  9.3.7 メータ部
  9.3.8 グループ化機能
 9.4 ハイブリッド型コンソール
  9.4.1 ミキシング操作の再生
 9.5 デジタルミキシングコンソールの特徴
  9.5.1 独立型ミキサ対オーディオワークステーション
 9.6 マルチトラック録音とリミックス
  9.6.1 マルチトラック録音:背景
  9.6.2 マルチトラック録音の長所
  9.6.3 マルチトラックミキシングがもたらす問題
 9.7 オーディオのモニタ
  9.7.1 ヘッドホン
  9.7.2 スピーカでのモニタ
   9.7.2.1 近距離でのモニタ
   9.7.2.2 コントロールルームでのモニタ
   9.7.2.3 試聴室でのモニタ
  9.7.3 演奏時のミキシングとモニタ
 9.8 自動ミキシング
  9.8.1 オーディオミキサのMIDI制御:パッチとチャネルミュート
 9.9 オーディオミキシングとビデオの同期
  9.9.1 複数マシンの同期
  9.9.2 SMPTEタイムコード
  9.9.3 MIDIタイムコード
 9.10 まとめ
第10章 信号処理の基本的概念
 10.1 ダイナミックレンジ処理
  10.1.1 エンベロープシェイパ
  10.1.2 ノイズゲート
  10.1.3 コンプレッサ
   10.1.3.1 ピーク検出器vs平均検出器
   10.1.3.2 圧縮比
  10.1.4 エクスパンダ
  10.1.5 リミッタ
  10.1.6 ノイズリダクションユニットとコンパンダ
   10.1.7 ダイナミックレンジ処理における危険性
 10.2 デジタルフィルタ
  10.2.1 音楽家のためのフィルタ理論
  10.2.2 フィルタの背景
  10.2.3 フィルタのインパルス応答,周波数応答,位相応答
  10.2.4 方程式としてのフィルタ
  10.2.5 簡単なローパスフィルタ
  10.2.6 簡単なハイパスフィルタ
  10.2.7 一般的な有限インパルス応答フィルタ
  10.2.8 簡単な無限インパルス応答フィルタ
  10.2.9 一般的な無限インパルス応答フィルタ
  10.2.10 FIRフィルタ対IIRフィルタ
  10.2.11 任意の仕様からのフィルタ設計
  10.2.12 複雑なフィルタのブロックを構築する
  10.2.13 くし形フィルタ
  10.2.13.1 FIRくし形フィルタ
  10.2.13.2 IIRくし形フィルタ
  10.2.14 全域通過フィルタ
 10.3 畳み込み
  10.3.1 畳み込み演算
  10.3.2 伸縮と遅延をかけた単位インパルスによる畳み込み
  10.3.3 畳み込みの数学的定義
  10.3.4 畳み込みと乗算の比較
  10.3.5 畳み込みの法則
  10.3.6 畳み込みとフィルタリングの関係
  10.3.7 高速畳み込み
  10.3.8 畳み込みの音楽的意味
   10.3.8.1 畳み込みとしてのフィルタリング
   10.3.8.2 畳み込みの時間的なエフェクト
   10.3.8.3 畳み込みとしての変調
  10.3.9 細粒とパルサーによる畳み込み
  10.3.10 線形畳み込み 対 巡回畳み込み
  10.3.11 逆畳み込み
 10.4 固定時間遅延エフェクト
  10.4.1 FIRローパスフィルタやFIRくし形フィルタとDDLの比較
  10.4.2 ディレイラインの実装
  10.4.3 固定遅延エフェクト
  10.4.4 遅延と音の定位
 10.5 可変時間遅延エフェクト
  10.5.1 フランジャ
  10.5.2 フェーザー
  10.5.3 コーラスエフェクト
 10.6 時間/ピッチ変化
  10.6.1 時間細粒化による時間/ピッチ変化
   10.6.1.1 電気機械式時間細粒化
   10.6.1.2 デジタル式時間細粒化
  10.6.2 ハーモナイザによる時間/ピッチ変化
  10.6.3 フェーズボコーダによる時間/ピッチ変化
   10.6.3.1 オーバーラップ加算による変形
   10.6.3.2 トラッキング・フェーズ・ボコーダによる変形
  10.6.4 ウェーブレット変換による時間/ピッチ変化
  10.6.5 線形予測符号化による時間/ピッチ変化
 10.7 まとめ
第11章 音の空間定位と残響
 11.1 音の空間定位
  11.1.1 音楽における空間定位の背景
  11.1.2 電子音楽における空間定位の例
  11.1.3 演奏における空間音投影の向上
 11.2 定位の手がかり
  11.2.1 方位角の手がかりのシミュレーション
   11.2.1.1 線形パンニング
   11.2.1.2 一定パワーのパン
   11.2.1.3 反射音
  11.2.2 距離の手がかりのシミュレーション
   11.2.2.1 局所的な残響と全体的な残響
  11.2.3 速度の手がかりとドップラー効果
  11.2.4 高度(天頂)の手がかりのシミュレーション
   11.2.4.1 垂直方向の音の錯覚に関する問題
  11.2.5 バイノーラルサウンド
  11.2.6 音の放射
 11.3 回転スピーカ
  11.3.1 回転スピーカ:背景
  11.3.2 回転スピーカのシミュレーション
 11.4 残響
  11.4.1 残響特性
   11.4.1.1 部屋のインパルス応答
 11.4.1.2 残響時間
  11.4.2 人工の残響:背景
  11.4.3 デジタルリバーブのアルゴリズム
   11.4.3.1 残響の部品
  11.4.4 リバーブユニット
   11.4.4.1 再帰型くし形フィルタ
   11.4.4.2 全域通過フィルタ
   11.4.4.3 リバーブのパッチ
   11.4.4.4 初期反射音のシミュレーション
  11.4.5 虚構の残響効果
 11.5 音空間のモデリング
  11.5.1 Schroederの残響アルゴリズムの拡張
  11.5.2 音空間の幾何モデル
  11.5.3 畳み込みによる残響
   11.5.3.1 細粒リバーブ
  11.5.4 ウェーブガイドリバーブ
  11.5.5 マルチストリームリバーブ
 11.6 まとめ

第Ⅳ部 音の分析
第12章 ピッチとリズムの認識
 12.1 ピッチ,リズム,波形の分析:背景
  12.1.1 初期の音の概念
  12.1.2 初期の録音機
 12.2 MIDIシステムにおけるピッチとリズムの認識
 12.3 ピッチ検出の問題点
  12.3.1 ピッチ検出の応用
  12.3.2 ピッチ検出の難しさ
   12.3.2.1 アタックの過渡現象
   12.3.2.2 低い周波数
   12.3.2.3 高い周波数
   12.3.2.4 近視眼的ピッチトラッキング
   12.3.2.5 音響環境
 12.4 ピッチ検出法
  12.4.1 時間領域基本周期ピッチ検出
  12.4.2 自己相関ピッチ検出
  12.4.3 適応型フィルタピッチ検出器
  12.4.4 周波数領域ピッチ検出器
   12.4.4.1 トラッキングフェーズボコーダ分析
   12.4.4.2 ケプストラム分析
  12.4.5 耳のモデルに基づくPD
  12.4.6 ポリフォニックピッチ検出
  12.4.7 音楽的文脈の分析
 12.5 リズム認識
  12.5.1 リズム認識の応用
  12.5.2 リズム認識のレベル
  12.5.3 イベント検出
   12.5.3.1 振幅の閾値による検出
   12.5.3.2 ポリフォニック音楽における声部の分離
  12.5.4 採譜
   12.5.4.1 テンポトラッキング
   12.5.4.2 音価の割当て
   12.5.4.3 パターンへのグルーピング
   12.5.4.4 拍子と小節境界の推定
   12.5.4.5 回復
 12.6 まとめ
第13章 スペクトル分析
13.1 スペクトル分析の応用
 13.2 スペクトルの表示法
  13.2.1 静的スペクトル表示
  13.2.2 パワースペクトル
  13.2.3 時間変動スペクトル表示
 13.3 スペクトル分析方法のモデル
 13.4 スペクトルと音色
 13.5 スペクトル分析:背景
  13.5.1 機械式スペクトル分析
  13.5.2 コンピュータによるスペクトル分析
   13.5.2.1 ヘテロダインフィルタ分析
   13.5.2.2 フェーズボコーダ物語
 13.6 短時間フーリエスペクトル
  13.6.1 入力信号の窓かけ
  13.6.2 STFTの操作
  13.6.3 オーバーラップ加算による分析データからの再合成
   13.6.3.1 オーバーラップ加算再合成の限界
  13.6.4 なぜ窓をオーバーラップさせるのか
  13.6.5 オシレータバンク再合成
  13.6.6 分析周波数
  13.6.7 時間/周波数の不確定性
   13.6.7.1 周期性は無限を意味する
   13.6.7.2 時間と周波数のトレードオフ
  13.6.8 分析binの間の周波数
   13.6.8.1 散乱の意味
  13.6.9 それ以外の再合成技術
 13.7 ソノグラム表現
  13.7.1 ソノグラムのパラメータ
 13.8 フェーズボコーダ
  13.8.1 フェーズボコーダのパラメータ
   13.8.1.1 フレームサイズ
   13.8.1.2 窓のタイプ
   13.8.1.3 FFTサイズとゼロ埋め
   13.8.1.4 ホップサイズ
  13.8.2 典型的なパラメータ値
  13.8.3 窓とじ
  13.8.4 トラッキングフェーズボコーダ
   13.8.4.1 TPVの操作
   13.8.4.2 ピークトラッキング
  13.8.5 分析エンベロープの編集
  13.8.6 フェーズボコーダによるクロス合成
  13.8.7 フェーズボコーダの計算コスト
  13.8.8 再合成の精度
  13.8.9 問題のある音
  13.8.10 非調波音や雑音的な音の分析
   13.8.10.1 決定論プラス確率技術
 13.9 定Qフィルタバンク分析
  13.9.1 定Q対伝統的フーリエ解析
  13.9.2 定Q分析の実装
 13.10 ウェーブレットによる分析
  13.10.1 ウェーブレット分析の操作
  13.10.2 ウェーブレットの表示
  13.10.3 ウェーブレット再合成
  13.10.4 ウェーブレットによる音の変形
  13.10.5 くし型ウェーブレットによる調波スペクトルからのノイズの分離
  13.10.6 ウェーブレット分析とフーリエ法の比較
 13.11 ウィグナー分布による信号分析
  13.11.1 ウィグナー分布表示の解釈
  13.11.2 ウィグナー分布の限界
  13.12 フーリエ以外の音の分析
  13.12.1 フーリエスペクトル分析の批判
  13.12.2 自己回帰スペクトル分析
   13.12.2.1 自己回帰移動平均分析
  13.12.3 音源とパラメータの分析
   13.12.3.1 パラメータ推定
  13.12.4 他の関数による分析
   13.12.4.1 ウォルシュ関数
   13.12.4.2 プロニーの方法
 13.13 聴覚モデル
  13.13.1 コクリーグラム
  13.13.2 コレログラム
 13.14 信号理解システム
  13.14.1 パターン認識
  13.14.2 制御構造と戦略
  13.14.3 信号理解システムの例
 13.15 まとめ
 
第Ⅴ部 音楽家インタフェース
第14章 音楽入力装置
 14.1 電子入力装置の利点
 14.2 入力装置のモデル
 14.3 コンピュータへのジェスチャ入力の歴史
  14.3.1 電圧制御
  14.3.2 デジタル制御
 14.4 伝統的入力装置と革新的入力装置
 14.5 入力装置のタイプ
 14.6 入力装置からのデータのマッピング
 14.7 人間工学と入力装置の精度
  14.7.1 時間的な精度
 14.8 音楽用キーボード
  14.8.1 キーボードの状態
  14.8.2 キーボードのスキャンレート
  14.8.3 ベロシティ,アフタータッチ,プレッシャに対する感度
  14.8.4 キーボードアクション
   14.8.4.1 拡張アクション付きキーボード
  14.8.5 コンピュータ制御ピアノ
  14.8.6 キーレイアウトとキースプリット
 14.9 リモートコントローラ
  14.9.1 指揮棒とグローブ
  14.9.2 リモートコントロールの伝送メディア
 14.10 レスポンスのある入力装置
 14.11 まとめ
第15章 演奏ソフトウェア
15.1 シーケンサ
  15.1.1 シーケンサの歴史
   15.1.1.1 紙テープシーケンサ
   15.1.1.2 アナログ電子シーケンサ
   15.1.1.3 デジタルシーケンサ
   15.1.1.4 音楽ロボット
  15.1.2 MIDI演奏データの性質
   15.1.2.1 ノートの内部構造
   15.1.2.2 デジタル・オーディオ・データ
  15.1.3 演奏におけるシーケンサの使用
   15.1.3.1 クオンタイズ
   15.1.3.2 演奏のセットアップとオーケストレーション
   15.1.3.3 シーケンサを使った演奏
   15.1.3.4 サブシーケンスと演奏ロジック
  15.1.4 シーケンサの内部
 15.2 楽譜を解釈するためのソフトウェア
  15.2.1 規則に基づく演奏
  15.2.2 演奏規則の例
 15.3 インタラクティブ演奏ソフトウェア
  15.3.1 キューの送信
  15.3.2 電子楽器の合奏の指揮
  15.3.3 人間の演奏者の伴奏をする
   15.3.3.1 音楽パターンの認識
  15.3.4 一つの楽器の共有制御
  15.3.5 コンピュータバンド
 15.4 ステージおよびインスタレーションの即興システム
   15.4.1 即興システムの歴史
  15.4.2 律的演奏
  15.4.3 即興システムの問題
 15.5 インタラクティブ演奏の設計
  15.5.1 演奏ツールキットの例:Max
   15.5.1.1 Maxの基礎
   15.5.1.2 メッセージボックス
   15.5.1.3 制御オブジェクト対信号処理オブジェクト
   15.5.1.4 波形生成パッチ
 15.6 演奏ソフトウェアの内部
  15.6.1 演奏用の音楽表現

  15.6.2 オブジェクト指向表現を使った演奏:MODEの例
   15.6.2.1 基本のEventクラス
   15.6.2.2 NoteEvent
   15.6.2.3 EventList
   15.6.2.4 EventとEventList間のシンボリックリンク
   15.6.2.5 EventGeneratorとEventModifier
  15.6.3 シンセサイザ中のイベント処理ソフトウェア
   15.6.3.1 ボイス割当てサブプログラム
   15.6.3.2 イベント・スケジューリング・サブプログラム
   15.6.3.3 リソース割当てサブプログラム
 15.7 まとめ
第16章 音楽エディタ
 16.1 編集のスコープ
 16.2 CMNエディタ
  16.2.1 楽譜の複雑さ
  16.2.2 規則に基づくエディタとグラフィクスに基づくエディタ
  16.2.3 コンピュータを使った楽譜編集と印刷の利点
 16.3 CMNエディタの目標
  16.3.1 楽譜印刷と楽譜編集の歴史
   16.3.1.1 メインフレーム上の楽譜エディタ
   16.3.1.2 ミニコンピュータを使った楽譜エディタ
   16.3.1.3 ワークステーションを使ったエディタ
  16.3.2 パーソナルコンピュータ上の楽譜編集と楽譜印刷
  16.3.3 CMNエディタの機能
  16.3.4 楽譜用フォントの解像度
  16.3.5 自動採譜
   16.3.5.1 鍵盤音楽の自動採譜の歴史
   16.3.5.2 自動採譜に関する実用上の問題
  16.3.6 カスタム記号の使用およびグラフィクスプログラムとの統合
 16.4 非伝統的な楽譜エディタ
  16.4.1 CMNへの批判
  16.4.2 新しい記譜エディタ
   16.4.2.1 グラフィクスとしての記譜
   16.4.2.2 音からの記譜
 16.5 MIDIシーケンス編集
  16.5.1 チャネル,トラック,パターンという構造
  16.5.2 プログラム間でのシーケンスデータの共有
  16.5.3 編集のための表現
   16.5.3.1 イベントリスト
   16.5.3.2 ピアノロール
   16.5.3.3 CMN
   16.5.3.4 拍節のグリッド
   16.5.3.5 コントローラエンベロープ
   16.5.3.6 グラフィックフェーダ
   16.5.3.7 デジタルオーディオ波形
  16.5.4 シーケンス編集操作
 16.6 関数エディタ
  16.6.1 関数エディタの歴史
  16.6.2 関数テーブルを埋める
  16.6.3 波形に対する操作
 16.7 パッチエディタ
  16.7.1 パッチエディタ対楽器エディタ
  16.7.2 グラフィカル・パッチ・エディタ
  16.7.3 パッチエディタの例
 16.8 楽器エディタ
  16.8.1 楽器エディタの歴史
  16.8.2 現在のモジュール式楽器エディタ
   16.8.2.1 フロントエンド対独立した合成パッケージ
  16.8.3 モジュール式楽器エディタの例(Music V Graphic EditorとTurbosynth)
 16.9 サウンド・サンプル・エディタ
  16.9.1 テープレコーダに基づくサンプルエディタ
   16.9.1.1 サンプルのインタリーブ
  16.9.1.2 静止ヘッドのテープレコーダを使った編集
  16.9.1.3 回転ヘッドのテープレコーダを使った編集
  16.9.2 ランダムアクセスメディアを使ったサンプル編集
  16.9.3 グラフィカル・サンプル・エディタの歴史
  16.9.4 グラフィカル・サンプル・エディタの特徴
   16.9.4.1 フェードとクロスフェード
  16.9.5 サウンドファイルのフォーマット変換
 16.10 スペクトルエディタ
  16.10.1 2次元スペクトル表示
  16.10.2 3次元スペクトル表示
  16.10.3 スペクトルエディタの例
 16.11 音データベースエディタ
  16.11.1 音の自動分類
 16.12 メディアエディタ
  16.12.1 メディアエディタの歴史
  16.12.2 パーソナルコンピュータ上のメディアエディタ
 16.13 音楽に関する知的エディタを目指して
 16.14 まとめ
第17章 音楽言語
 17.1 言語の評価
 17.2 ソフトウェア楽音合成言語
  17.2.1 ソフトウェア楽音合成の利点と欠点
  17.2.2 ユニットジェネレータ言語
  17.2.3 楽譜とオーケストラ
   17.2.3.1 楽譜言語
   17.2.3.2 オーケストラ言語
   17.2.3.3 ユニットジェネレータ間の相互接続
  17.2.4 楽器定義の例
  17.2.5 楽譜定義の例
   17.2.5.1 関数テーブル定義
   17.2.5.2 音符リスト
  17.2.6 楽譜の別な表現
   17.2.6.1 別の楽譜形式の例 Scorefile
   17.2.6.2 音符リスト以外の楽譜表現
  17.2.7 サウンドファイルの処理
  17.2.8 Music $N$の実装
   17.2.8.1 移植性
   17.2.8.2 拡張性
   17.2.8.3 グラフィカルツール
   17.2.8.4 ブロック計算とサンプル計算
 17.3 リアルタイム楽音合成を制御する言語
  17.3.1 固定機能のハードウェアと可変機能のハードウェア
  17.3.2 リアルタイム楽音合成制御の歴史
  17.3.3 固定機能DSP用のMIDI言語
  17.3.4 可変機能DSP用の言語
   17.3.4.1 リアルタイム・ユニット・ジェネレータ4CEDとMax
   17.3.4.2 DSPプログラムの簡単な例
   17.3.4.3 可変機能DSPのMIDI制御
  17.3.5 複数の制御ストリームのマージ
 17.4 作曲言語
  17.4.1 楽譜入力言語
   17.4.1.2 楽譜入力言語に対するMIDIの影響
   17.4.1.3 楽譜の符号化と演奏の問題
  17.4.2 手続き型作曲言語
  17.4.3 プログラミング言語に組み込まれた音楽言語
 17.5 まとめ
第18章 アルゴリズム作曲システム
 18.1 アルゴリズム作曲の背景
  18.1.1 音楽における形式的処理に関する簡単な歴史
  18.1.2 コンピュータ以前の自動作曲機械
   18.1.2.1 作品におけるシーケンス制御
  18.1.3 コンピュータ音楽の先駆者Lejaren Hiller
  18.1.4 アルゴリズム音楽の先駆者たち
 18.2 アルゴリズム音楽に内在する美への動機
 18.3 決定的プロセスと確率的プロセス
 18.4 三つの先駆的作曲プログラム
  18.4.1 Stochastic Music Program
  18.4.2 Project 1
  18.4.3 PODプログラム
 18.5 五線譜への変換と解釈
 18.6 全自動作曲とインタラクティブ作曲
  18.6.1 バッチモードにおけるインタラクション
  18.6.2 インタラクションのある自動作曲
 18.7 音楽的アシスタント(補助作業者)
 18.8 作曲環境とミクロ世界
 18.9 まとめ: アルゴリズム作曲の適用性
第19章 アルゴリズム作曲の表現と技法
 19.1 音楽の表現
 19.2 システム理論:オートマトンとその結合
  19.2.1 決定性オートマトンと確率オートマトン
  19.2.2 オートマトン同士の結合
 19.3 セルオートマトン
  19.3.1 セルオートマトンの振るまい
  19.3.2 セルオートマトンによる音楽アプリケーション
 19.4 音楽の制御構造のモデル
 19.5 確率的プロセス
  19.5.1 確率表の参照
   19.5.1.1 一様乱数分布
   19.5.1.2 擬似乱数
   19.5.1.3 決定論的分布
   19.5.1.4 素朴な選択アルゴリズム
   19.5.1.5 累積分布
   19.5.1.6 確率表参照の拡張
   19.5.1.7 確率分布の選択
   19.5.1.8 方程式からプログラムコードへ
  19.5.2 マルコフ連鎖(Markov Chain)
   19.5.2.1 音楽向きマルコフ連鎖の応用
   19.5.2.2 階層的マルコフ連鎖
 19.6 フラクタル
  19.6.1 1/f雑音
  19.6.2 自己相似性
  19.6.3 フラクタルアルゴリズム
  19.6.4 1/fの拡張
 19.7 カオス発生器
  19.7.1 線形システムと非線形システム
  19.7.2 カオスアルゴリズム
 19.8 文法
  19.8.1 文法の音楽への応用
  19.8.2 形式文法の記法
  19.8.3 音楽文法の例
  19.8.4 文法の適用性
 19.9 生成・検査法
  19.9.1 生成・検査法の拡張
 19.10 パターン照合と検索技術
  19.10.1 作曲におけるパターン指向検索の例
 19.11 制約
  19.11.1 制約を音楽に応用した例
  19.11.2 制約ネットワークの充足
 19.12 エキスパートシステム
  19.12.1 エキスパート・システム・シェル
  19.12.2 エキスパートシステムの適用性
 19.13 ニューラルネットワーク
 19.14 分析と作曲
  19.14.1 作曲プログラムにおける分析の例
 19.15 まとめ
 
第Ⅵ部 内部構造と相互接続
第20章 デジタル・シグナル・プロセッサの内部構造
 20.1 楽音合成ハードウェアの予備知識
 20.2 システム設計における様々なレベル
 20.3 デジタル合成ハードウェアの基礎
  20.3.1 パルストーン合成
  20.3.2 サンプル生成
  20.3.3 パルストーン合成とサンプル生成
 20.4  デジタルサウンドの音質評価基準
  20.4.1 サンプリングレート
  20.4.2 入出力のサンプル幅
  20.4.3 内部コーディングにおける分解能
  20.4.4 浮動小数点と固定小数点
  20.4.5 波形テーブルの大きさ
  20.4.6 周波数分解能とチューニング
 20.5  デジタル合成に必要な計算
  20.5.1 時分割多重化
  20.5.2 DSPの性能指標
   20.5.2.1 データメモリとプログラムメモリ
   20.5.2.2 入出力バンド幅
 20.6 デジタル・シグナル・プロセッサ(DSP)のアーキテクチャ
  20.6.1 固定機能と可変機能のDSPアーキテクチャ
  20.6.2 汎用マイクロプロセッサとDSPの相異点
  20.6.3 DSPのためのRISCマイクロプロセッサ
   20.6.3.1 分数アドレッシング
  20.6.4 DSPの命令
  20.6.5 DSPアーキテクチャの例
  20.6.6 分岐における課題
  20.6.7 単一DSP内部での並列性とパイプライン処理
  20.6.8 パラメータ更新の問題
   20.6.8.1 方法1:更新期間の指定
   20.6.8.2 方法2:DSPの制御
   20.6.8.3 MIDIブラックボックス
   20.6.8.4 パラメータ更新の問題についての議論
 20.7 DSPのプログラミングとマイクロプログラミング
  20.7.1 マイクロプログラム
  20.7.2 水平型マイクロコーディング
  20.7.3 マイクロプログラミングの利点と欠点
 20.8 VLSIとDSP
  20.8.1 VLSIの長所
  20.8.2 小型化の流れ:背景
  20.8.3 低電力化の流れ:背景
 20.9 アレイプロセッサ
  20.9.1 アレイプロセッサの命令
 20.10 マルチプロセッサアーキテクチャ
  20.10.1 固定機能要素プロセッサと汎用要素プロセッサ
  20.10.2 データフロー
  20.10.3 コネクショニストアーキテクチャ
 20.11 まとめ
第21章 MIDI
 21.1 MIDI制御データと音
 21.2 背景:MIDI 1.0仕様
 21.3 MIDIの音楽的可能性
 21.4 MIDIハードウェア
  21.4.1 MIDIポート
   21.4.1.1 ディジーチェインとMIDIパッチベイ
  21.4.2 MIDIコンピュータインタフェース
   21.4.2.1 シリアルインタフェース
   21.4.2.2 パラレルインタフェース
   21.4.2.3 マルチポートインタフェース
 21.5 MIDIドライバプログラム
 21.6 MIDIチャネル
  21.6.1 16チャネルを越える場合
 21.7 MIDIメッセージ
  21.7.1 ピッチのMIDI表現
  21.7.2 ステータスバイトとデータバイト
  21.7.3 チャネルメッセージ
  21.7.4 システムメッセージ
  21.7.5 ランニングステータス
 21.8 MIDIのモード
  21.8.1 モード1「オムニ」
  21.8.2 モード2
  21.8.3 モード3「ポリ」
  21.8.4 モード4「マルチ」
  21.8.5 General MIDIモード
 21.9 MIDIを用いた連続的な制御
  21.9.1 コントロール・チェンジ・メッセージ
  21.9.2 定義ずみコントローラ
  21.9.3 登録ずみパラメータと未登録パラメータ
 21.10 標準MIDIファイル
  21.10.1 標準MIDIファイルのフォーマット
 21.11 オーディオデータの転送
  21.11.1 サンプルダンプ標準
 21.12 MIDIのタイミング制御
  21.12.1 MIDIクロックメッセージ
  21.12.2 MIDIタイムコード
  21.12.3 キューリスト
 21.13 MIDIによるマシン制御とショーの制御
 21.14 MIDIアクセサリ
 21.15 MIDIの限界
  21.15.1 バンド幅の限界
   21.15.1.1 マイクロプロセッサの遅延
  21.15.2 相互結合の限界
  21.15.2 音楽記述の限界
 21.16 MIDI通信の高速化
 21.17 MIDI音楽ソフトの作成
  21.17.1 MIDIプログラムの概観
  21.17.2 MIDIプログラミングのための言語
 21.18 MIDIに関する連絡先
 21.19 まとめ
第22章 システム相互接続
 22.1 AC電源線
 22.2 アナログ・オーディオ・ケーブル
  22.2.1 コネクタ
  22.2.2 平衡型と非平衡型
  22.2.3 ケーブル長
 22.3 パッチベイ
  22.3.1 アナログ・パッチ・ベイ
  22.3.2 ハイブリッド・パッチ・ベイ
  22.3.3 デジタル・パッチ・ベイ
 22.4 シリアルなデータ転送
 22.5 MIDIケーブル
 22.6 デジタル・オーディオ接続
  22.6.1 転送フォーマットとファイルフォーマット
 22.7 光ファイバケーブル
 22.8 同期リンク
  22.8.1 MIDI同期リンク
   22.8.1.1 コマンド同期
   22.8.1.2 クロック同期
   22.8.1.3 MIDIタイムコード同期
   22.8.1.4 キューリスト同期
  22.8.2 SMPTE同期リンク
  22.8.3 デジタルオーディオ同期リンク
 22.9 パラレルポートとバス
  22.9.1 非同期バスと同期バス
  22.9.2 割り込み信号
 22.10 ダイレクト・メモリ・アクセス・コントローラと共有メモリ
 22.11 ネットワーク
 22.12 長距離通信
 22.13 まとめ

第Ⅶ部 音響心理学
第23章 コンピュータ音楽における音響心理学John W.Gordon
 23.1 強度の知覚
 23.2 人間の耳
 23.3 時間的な特徴の知覚
 23.4 周波数の知覚
  23.4.1 臨界帯域
 23.5 雑音の知覚
 23.6 融合と音色の知覚
 23.7 マスキング効果
 23.8 まとめ:音響心理学と知覚

付録 フーリエ解析 Philip Greenspun との共著

24.1 フーリエ解析の歴史
 24.2 信号の数学的表現
  24.2.1 複素数および直交座標と極座標
  24.2.2 周波数,振幅,位相の表現
   24.2.2.1 ラジアンと三角関数
   24.2.2.2 角速度としての周波数
   24.2.2.3 半径の大きさとしての振幅
   24.2.2.4 回転開始の地点としての位相
   24.2.2.5 サインとコサインの和としての位相
  24.2.3 複素指数関数としての信号
   24.2.3.1 オイラーの関係
 24.3 フーリエ級数とフーリエ変換
  24.3.1 フーリエ級数
  24.3.2 フーリエ変換
 24.4 アナログ試験装置を使ったスペクトル解析
 24.5 離散時間フーリエ変換
 24.6 離散フーリエ変換
 24.7 短時間フーリエ変換とフェーズボコーダ
  24.7.1 窓かけされたDFT表現
  24.7.2 フィルタバンク表現
  24.7.3 フェーズボコーダフィルタの内部
   24.7.3.1 ヘテロダイン・バンドパス・フィルタ
   24.7.3.2 直交座標から極座標へ
   24.7.3.3 位相の展開
 24.8 信号に窓をかける
  24.8.1 窓長
  24.8.2 窓の形状
  24.8.3 窓の選択
  24.8.4 DFTにおけるゼロ詰め
  24.8.5 逆離散フーリエ変換
  24.8.6 オーバーラップ加算再合成
   24.8.6.1 オーバーラップ再合成の評価
 24.9 発振器バンク再合成
  24.9.1 発振器バンク再合成の評価
 24.10 高速フーリエ変換
 24.10.1 高速フーリエ変換の必要性
  24.10.2 FFTアルゴリズムの構造
   24.10.2.1 基数2のFFT
   24.10.2.2 バタフライ
   24.10.2.3 データシャッフルとビット反転
   24.10.2.4 整数論による変換(もう一つのFFT)
 24.11 まとめ

参考文献
索 引
訳者らあとがき


一般社団法人 大学出版部協会 Phone 03-3511-2091 〒102-0073 東京都千代田区九段北1丁目14番13号 メゾン萬六403号室
このサイトにはどなたでも自由にリンクできます。掲載さ>れている文章・写真・イラストの著作権は、それぞれの著作者にあります。
当協会 スタッフによるもの、上記以外のものの著作権は一般社団法人大学出版部協会にあります 。