%#!platex -kanji=%k
%#DVIPDF dvipdfmx -f ipa.map
\documentclass{jsbook}%\documentclass{文書の種類}TeXファイルの先頭に配置して,文章の種類を定めます。jbook書籍。
%\pagestyle{empty}
\usepackage[dvipdfmx]{graphicx}%パッケージの利用
%\usepackage{listings, jlisting}
%\usepackage[sectionbib]{chapterbib}
\usepackage{ascmac}
\usepackage[twoside,inner=30truemm,outer=20truemm]{geometry}
\usepackage{url} % 文中にURLを書くときは \url{} で括る
\usepackage{tabularx}
\geometry{textwidth=160mm, textheight=225mm}%レイアウト
\title{楽曲のイメージ形成を支援するシステムの提案}
\author{広瀬研究室4年\\C1222531 滝澤壮悦}
\date {令和7年10月29日}
\begin{document}
\maketitle
\begin{center}
{\bfseries 概要}
\end{center}
%% 概要 %%
昨今,Desk Top Music(DTM)の普及により,誰もが自身のデスクトップ環境で高度な音楽制作に挑戦できる時代が到来した。
しかし,そのための主要なツールであるDigital Audio Workstation(DAW)は,プロフェッショナルの要求に応えるべく多機能化・複雑化が進んでいるのが現状である。
その結果として、専門知識の習得が音楽制作に初めて触れる人々にとって乗り越えるべき障壁となっている。
本研究ではこの課題に対し,Webブラウザ上で動作するJavaScriptライブラリ「Tone.js」を活用した,新しい考えに基づく作曲システムを提案する。
本システムは,楽曲全体の構造設計から入る従来の手法とは一線を画し,楽器の演奏譜であるピアノロール画面そのものを創作の出発点とするものである。
機能を意図的に削ぎ落とし,頭に浮かんだアイデアを音へと変換できるインターフェースを提供することで,音楽制作の根源的な楽しさを誰もが体験できる環境を構築し,その敷居を抜本的に低くすることを本研究の目的とする。
(459文字)
\tableofcontents
\clearpage
\chapter{はじめに}
本章では,研究を行なっていく上での背景や目的について説明する。
\section{背景}
2025年現在,プロ・アマチュアを問わず,多くの人々によって作曲が行われている。
その大部分はDTM(Desk Top Music)と呼ばれる,パーソナルコンピュータ(PC)上で音楽を作成・編集する手法によって実現されている。
専用のプラグインや仮想楽器を活用することで,物理的な楽器の演奏スキルがなくとも豊かな音楽表現が可能であり,録音や編集もマウスとキーボードで完結できる点がDTMの大きな利点である。
DTMはPC性能の向上とインターネットの発展に伴い爆発的に普及した。ハードディスクの大容量化は高品質な音源の利用を可能にし,インターネットはユーザー間のノウハウ共有を促進した\cite{history}。
これにより,今日ではアマチュアの作曲家でもプロフェッショナルとほぼ同様の制作環境を構築することが可能となっている。
一方で,技術の進歩と情報の充実は,新たな課題を生んだ。
それは,新規参入者に対する情報供給の過多である。
DTMの世界に足を踏み入れた初心者は,トラック,リージョン,バスといった専門用語の壁や,「アレンジャービュー」に代表される複雑な画面構成に直面する。
多くの場合,音を一つ鳴らすまでに複数のステップを要し,頭の中のメロディを形にする以前の段階で挫折するケースは少なくない。
これでは,せっかく芽生えた創作意欲が損なわれてしまうと私は考える。
この問題意識に基づき,作曲の根源的な楽しさに回帰するという考えのもと,あえて機能を絞った無料の作曲システムが必要であると結論付けた。
\section{研究目的}
上記を踏まえ、本研究が提案するシステムは複雑な構造設計を後回しにし,起動した瞬間から誰もが音を出し,メロディを紡ぐことに集中できるピアノロール中心のインターフェースを特徴とする。
これにより,音楽制作への第一歩を阻む障壁を取り除くことを目指す。
\section{DTM周辺における用語の定義}
\begin{description}
\item[Digital Audio Workstation (DAW)] 音楽制作のためのソフトウェア。
録音,編集,ミキシング,マスタリングなどの機能を提供し,楽曲制作の中心的役割を果たす。
\item[Virtual Studio Technology (VST)] 音源やエフェクトをプラグイン形式で提供する規格。
DAWにインストールすることで,さまざまな音色やエフェクトを使用可能。
\item[Musical Instrument Digital Interface (MIDI)] 電子楽器や音楽ソフトウェア間で音楽データを
やり取りするための規格。音高,音量,テンポなどを制御できる。
\item[サンプラー] 録音した音(サンプル)を加工・再生する楽器やソフトウェア。
打楽器や効果音を使用する際に便利。
\item[シーケンサー] 音楽データ(主にMIDIデータ)を記録し,再生・編集するためのツール。
DAWの一部として組み込まれることが多い。
\item[オーディオインターフェース] PCと楽器,マイク,スピーカーを接続するための機器。
音質の向上やレイテンシーの低減を目的とする。
\item[エフェクト] 音に変化を与えるための処理や装置。
残響音(リバーブ)や遅延音(ディレイ),イコライザー(EQ)などが一般的。
\item[ミキシング] 録音した音源を調整し,一つの楽曲としてバランスを整える作業。
音量,定位,エフェクトの適用が主な工程。
\item[マスタリング] 完成した楽曲を最終的に調整する工程。
全体の音量,音質を整え,商業的な音源として仕上げる。
\item[打ち込み] MIDIを使用して,手動で楽器やドラムパターンを入力する作業。
リズムやメロディを細かく設定できる。
\item[ループ素材] 繰り返し使用可能な音楽パターンやフレーズ。作曲のスピードを上げるために使用される。
\item[テンポ] 楽曲の速さを表す指標。Beats Per Minute(BPM)で表記され,1分間に何拍あるかを示す。
\item[キー] 楽曲の調性を示す用語。
\item[コード] 同時に鳴らされる複数の音によって構成される和音。
メジャーコードやマイナーコードが基本形としてよく使われる。
\item[コード進行] 曲全体の流れを決定するために使われる
コードの並び方。
\item[オシレーター] シンセサイザーで音を生成する基本部分。波形を発生させ,音色の元となる。
\item[サイドチェイン] 特定のトラックの音量を別のトラックの信号に応じて変化させる技術。
ポンピング効果として使用されることが多い。
\item[レイテンシー] オーディオ処理時に発生する遅延時間。作曲の場においては低くあるべきとされる。
\item[Music Macro Language (MML)] 音楽をプログラムコードの形式で記述する言語。
音符やリズム,テンポなどを簡潔に指定できるため,音楽をプログラム的に制御する際に使用される。
記述例として「CDEFGAB」などの音符シーケンスや,`t`(テンポ)や`l`(音符の長さ)といった
制御コマンドがある。
\end{description}
\chapter{関連研究と類似サービス}
本章では現状と課題を明らかとするため,
作曲支援とブラウザにて提供される音楽体験の視点から関連研究と類似したサービスを調査した。
2.1章では,ブラウザ上で動作する Digital Audio Workstation (DAW)について取り上げる。
2.3章では,作曲支援に関する研究とその効果について取り上げる。
\section{類似サービス}
下記に示す類似サービスは,いずれもブラウザ・クラウドベースの作曲ソフトである。
そのような作曲ソフトの利点として,追加のソフトウェアをインストールする必要がないこと,インターネット接続さえあればどこでも利用できること,またオンラインかつリアルタイムで複数人による同時作曲を得意とすることが挙げられる。
\subsection{BandLab}
本研究と同様に,Webブラウザ上で動作し音楽制作の敷居を下げることを目指したサービスとして,シンガポールを拠点とするBandLab Technologiesが提供するクラウドベースのDAW BandLab が挙げられる\cite{bandlab}。
BandLabは,専用ソフトウェアのインストールを必要とせず,Google ChromeなどのWebブラウザからアクセスできる手軽さを特徴とする。
制作した楽曲はクラウド上に保存され,PC,スマートフォン,タブレットといったデバイスを問わず,どこからでも作業を継続できる利便性を提供する(図\ref{figure:bandlab1})。
さらに,BandLabの最も顕著な特徴は,音楽制作機能とソーシャル・ネットワーキング・サービス(SNS)機能が密接に統合されている点である。
ユーザーは自身の作品を公開し,他のアーティストの楽曲を聴いたり,「いいね」やコメントを送ったりすることが可能である。
また,他者の公開プロジェクトを自身のプロジェクトに取り込んでリミックス(フォーク)するといった,コラボレーションを促進する機能も充実している。
\newpage
\begin{figure}[htbp]
\centering
\includegraphics[width=10cm]{bandlab.png}
\caption{BandLab楽曲制作画面}
\label{figure:bandlab1}
\end{figure}
\subsection{Soundation}
Soundationは,特に音楽制作初心者への教育的アプローチを重視している点が特徴である。
アプリケーション内には丁寧なチュートリアルやビデオガイドが組み込まれており,ユーザーはDAWの基本的な操作方法を学びながら制作を進めることができる\cite{soundation}。
さらに数多くのサウンドサンプルやループ素材がプリセットとして用意されており,これらを組み合わせるだけでも楽曲制作が体験できるため,ゼロからメロディを生み出すことが困難なユーザーにとっての導入的な役割を果たしている(図\ref{figure:soundation})。
しかしSoundationはフリーミアムモデルを採用しており,無料プランで利用できる機能は限定的である。
プロジェクト数の上限は3つ,クラウドストレージは1GBに制限され,利用可能なサウンドライブラリも一部のみとなる。全ての機能と素材を利用するには,月額または年額の有料プランへの加入が必要となる。
この点においてSoundationは学習コンテンツの提供という形で初心者をサポートする一方で,そのビジネスモデルは最終的に高機能な有料版へのアップグレードを促す構造となっている。
これは最初からすべての機能を無料で提供し,ツールとしてのシンプルさそのもので敷居を低くすることを目指す本研究のアプローチとは異なると言える。
\begin{figure}[htbp]
\centering
\includegraphics[width=10cm]{soundation.png}
\caption{Soundationの楽曲制作画面}
\label{figure:soundation}
\end{figure}
%\subsection{AudioSauna}
%サブセクションだよ\cite{sauna}。
\section{類似サービスにおける課題点}
上記のサービスは,Webブラウザ上でのアクセシビリティや豊富なプリセット素材の提供により音楽制作の敷居を一定程度下げることに成功している。
しかし両サービスに共通して,我々が本研究で最も解決すべきと考える根源的な課題が残されている。
それは,インターフェースの設計思想が依然として従来のプロフェッショナル向けDAWの構造を簡略化したものに留まっている点である。
両サービスともにその基本画面は,複数のトラックが縦に並び,時間軸に沿って「リージョン」や「クリップ」と呼ばれる音声ブロックを配置していく「アレンジャービュー」を基本構造として採用している。
これは楽曲全体の構成を俯瞰するには適しているが,音楽制作の経験がない初心者にとっては,以下の二つの点で依然として高い障壁となる。
第一に,アイデアから音を出すまでの心理的・操作的な距離が遠いことである。
ユーザーはまず「トラック」という概念を理解し,録音や入力のための「リージョン」を作成し,その上で「ピアノロール」や「エディタ」を開くという多段階の操作を要求される。
頭の中にメロディが浮かんだとしても,それを即座に形にする直感的なフローが提供されていない。
第二に,創造性の出発点が「構造」に固定化されてしまうことである。
アレンジャービューを前にしたユーザーは,無意識的に「イントロ」「Aメロ」といった楽曲構成から考え始めることを強いられる。
これは,単純に一つの美しいメロディを奏でたい,あるいは心地よい和音を探したいといった,より根源的で自由な創作活動を阻害する可能性がある。
「制作環境の提供」や「共有機能の充実」に重点が置かれており、音を紡ぐ純粋な楽しさそのものに最適化されたインターフェースを提供するには至っていない。
\section{関連研究}
以下に本研究と関連する内容の先行研究を示す。
いずれも作曲支援を目的としており,そのアプローチはシステムの開発から音楽制作講義の実施まで様々である。
\subsection{作曲者の特徴を捉えた学習型自動メロディ生成システムの開発}
丹羽らは,作曲者の作風における共通した音楽的特徴について着目し,その特徴を学習し,作曲家のスタイルに合ったメロディを自動生成するシステムを作成した\cite{sakuhu}。
システムは学習部と生成部の2つで構成されており,作曲家の楽曲データを基に作風を学習し,それに基づいたメロディを自動生成する。学習部では,作曲家の複数の楽曲から音の遷移パターンを抽出し,ニューラルネットワーク(ANN)に音高や音長の特徴を学習させる。生成部には「生成エンジン」と「評価エンジン」が含まれ,生成エンジンは音の遷移ネットワークを構築し,それを基にメロディを生成する。一方,評価エンジンはANNを用いて生成されたメロディの適応度を計算し,遺伝的アルゴリズムを使ってメロディを進化させ,作曲家のスタイルに適したメロディを出力する。
実験では,J.S.バッハの楽曲3曲を学習データとして使用し,生成されたメロディをANNによる評価エンジンで検証した。学習曲と未学習曲を比較した結果,学習曲では不一致度が低く(約40\%),未学習曲では高い(約80\%以上)ことが確認された。音高遷移の評価で大きな差が見られ,音長遷移では類似パターンが含まれやすい傾向があった。学習曲に対しても不一致度が完全には低下しないことが課題として残り,評価エンジンのさらなる改良を課題とした。
\subsection{バンド演奏特化型作曲支援システムの開発}
増田は,楽器経験者で作曲初心者が抱える課題に着目し,バンド演奏に適した曲を作曲できる支援システムを作成した\cite{band}。
ユーザ調査では,作曲経験者と挫折した人を対象にアンケートを実施し作曲環境や手順の違いを比較した。その結果作曲成功の鍵となる要因として,コード進行のルール理解やスタジオなど充実した作曲環境の重要性が浮かび上がった。これを基に作曲に挫折しないためには,コード進行の支援機能,他楽器の補助機能,録音内容を視覚化する機能,そして全工程を一台で完結できるシステムが必要であると仮説を提案した。
プロトタイプの設計では,ユーザーの利用シナリオに基づき,コード進行支援機能や自動採譜機能,リズムパターン選択機能などを組み込んだ。シナリオ評価を通じて,ユーザーからは自動採譜やコード進行の支援機能が好評を得る一方で,システム全体の流れがわかりにくいとの指摘があった。結論として,この作曲支援システムは初心者をサポートする有望なツールであることが示されたが,今後はユーザーのフィードバックを反映し,操作性や機能の改善が求められている。
\subsection{オンライン協調作曲支援システム Marble の開発}
大平らは,初心者ユーザーにおけるオンライン協調作曲の課題に着目し,楽曲イメージの共有と作曲効率の改善を目的とした支援システム「Marble」を作成した\cite{marble}。
Marbleの主な機能として,ピアノロールインターフェースによる視覚的な音楽データの編集機能,Skype APIを使用したリアルタイムの楽譜データ動機と共同編集機能,またメンバー間の作曲における各ステップの進行状況を即事に共有すると言った機能が設計されている。
従来の非同期型DTMシステムとMarbleを作曲完了時間と編集回数で比較する実験では,作曲完了に要する時間が優位に短縮した結果が得られている。
\subsection{音楽制作授業実施に際しての事例}
小松は,DTMによる音楽制作の授業において,学生が音楽理論を学びながら楽曲制作を行うこと
を目的とし,GarageBandを活用した実践的授業内容とルーブリック評価による評価手法を構築した
\cite{class}。
具体的な演習の流れとして,はじめにコード理論の講義,次にコード進行の作成,最後にコード構成音からのメロディ作成という順で講義を進めた。評価方法は中間課題と最終課題に対してのルーブリック評価であり,知識力,応用力,展開力の観点から定量的,定性的に評価を行った。この講義の成果として,音楽制作に対しての理解度向上,またきめ細かい指導と評価が実現できたことを挙げている。
課題として,演習素材やテンプレートの拡充や客観的な評価方法の改良を挙げている。
\section{関連研究における課題点}
ここでは,本研究が着目する視点から,これらの先行研究・サービスに残された共通の課題を列挙する。
第一に,専門知識の習得が依然として創作の前提となっている点である。
増田の研究では作曲成功の鍵としてコード進行のルール理解が挙げられており,小松の事例もコード理論の講義から始まる。
これは音楽制作には一定の理論学習が不可欠であるという従来の考え方を踏襲するものである。
また丹羽の研究におけるニューラルネットワークのような高度な技術は,それ自体の理解と操作が専門的であり,ユーザーが自身の感性を直感的に反映させる上での障壁となり得る。
第二に,アイデアから音を出すまでの心理的・時間的コストの高さである。
従来のDAWの構造を簡略化したインターフェースでは,初心者が一つの音を鳴らすまでに複数のステップ(トラック作成,リージョン配置,エディタ起動など)を要する。
増田の研究で指摘されたように,作曲の挫折者は手順や環境の問題を抱えており,この煩雑なプロセスが「作りたい」という初期衝動を削いでしまう。
何らかの音を鳴らすことすらままならないという状況は,モチベーションの維持を著しく困難にする。
これらの課題は,多くの先行研究が「高機能なツールをいかに使いやすく教えるか」というアプローチに留まっていることを示唆している。
\chapter{楽曲のイメージ形成を支援するシステムの提案}
本章では,作曲経験のある複数人へ行ったヒアリング調査の結果と,
本研究にて提案するシステムの概要を示す。
\section{システム提案にあたっての前提}
\subsection{作曲スキル別の分類}
本研究では,DTMにおける作曲スキル別のレベルとその特徴,またそのレベルに
当たる人の具体例を以下の様に分類する。
分析の際に着目した点は以下の通りである。
\begin{itemize}
\item 音楽理論の理解度
\item 作曲の経験
\item アレンジ能力
\item 創造性
\end{itemize}
\begin{table}[ht]
\centering
\caption{作曲スキルの分類}
\label{tab:composition_skills}
\begin{tabular}{|c|p{10cm}|p{5cm}|}
\hline
\textbf{レベル} & \textbf{特徴} & \textbf{具体例} \\ \hline
熟達者& 音楽理論を深く理解し,幅広いジャンルで作曲可能。
創造的なアイデアを自由に展開し,経験に基づく高度なアレンジや即興もこなせる。
& プロフェッショナルな作曲家,アレンジャー \\ \hline
中級者& 音楽理論の基礎と応用をある程度理解。
特定ジャンルでの作曲が可能で独自のスタイルを持つ。基本的なアレンジに対応可能。
& 自作曲を発表するアマチュアのバンドメンバー\\ \hline
初級者& 音楽理論の基礎を一部理解し,簡単なコード進行やメロディを作成可能。
他人の曲を参考にした模倣的な作曲が主となる。アレンジは簡単なレベルに限定される。
& 学習過程で簡単な作曲を始めた学生\\ \hline
初心者& 音楽理論の実践的部分の理解が未熟である。
創造的なアイデアの幅が狭く,経験に基づくアレンジが難しい。
模倣や単純なフレーズ作りから始める段階。
& 初めて作曲に挑戦する人や,音楽理論を学び始めたばかりの人\\ \hline
\end{tabular}
\end{table}
\subsection{本研究が対象とするレベル}
上記の分類において,本システムが主たる対象とするのは初心者のレベルである。
多くの初心者は,音楽理論の知識不足だけでなく従来のDAWが持つ構造的な複雑さそのものによって創作意欲を阻害されている。彼らが直面する典型的な課題は,まず「何から手をつけて良いかわからない」という戸惑いである。トラックやリージョンといった抽象的な概念を前にし,頭の中のメロディをどの箱に入れればよいのか分からず,音を一つ出すことすらできずに挫折してしまう。
加えて思いついた単純なフレーズをすぐに試せない・記録できないため,操作方法を調べている間にインスピレーションが薄れてしまうという,アイデアの断片化と喪失も深刻な問題である。
これにより初心者は,アイデアを形にするという成功体験を得にくくなっている。
また従来のDAWは最初から「イントロ」「Aメロ」といった楽曲全体の構造を意識させるため,自由にメロディを紡ぐという根源的な創作活動への集中が妨げられる傾向にある。
後述するヒアリング調査に協力してくれた2名には,初心者のレベルに該当していた頃を振り返って回答してもらった。
\section{ヒアリング調査}
本研究におけるヒアリング調査の最終的な目的は,
「初心者にとって使いやすい作曲ソフト」はどうあるべきかを明らかにすることであり,
開発するシステムが「初心者にとって使いやすい」と明言するための背景にすることである。
ここでは,現在作曲を趣味で行っている者2名へ行ったヒアリング調査の全容を示す。
\subsection{ヒアリング内容}
上記の目的を見据え,以下に示す本研究における初心者の定義に当てはまった経験のある者にヒアリングし,そのデータをもとにワークモデル分析を行う。
これにより,初心者の作曲過程に対し深い理解を得る狙いがある。
フローモデルでは,作曲活動において,誰とどのようなコミュニケーションを取ったのかを明示する。
これは,共同作曲者や編曲家,さらにはアーティストや関係者とのやり取りが
どのように行われたかを詳細に示すものである。
このモデルは,作曲プロセスにおける人間関係のダイナミクスや,情報の伝達方法,
タイミング,頻度,内容なども含む。
これにより,作曲の進行における協力体制や意見交換の流れを可視化し,
全体のプロセスにおけるコミュニケーションの重要性や改善点を見出すことが可能となる。
シーケンスモデルでは,作曲全体の流れを時系列に沿って示す。
具体的には,インスピレーションを収集する段階から,アイディアの具現化,
リズムの形成,メロディの構築,ハーモニーの追加,
そして最終的な曲の完成に至るまでのプロセスを詳細に記述する。
このモデルは,作曲活動の進行順序を把握するだけでなく,
それぞれの段階で試行錯誤がどのように行われ,
作業がどのように進化していくのかを明確にするための手助けとなる。
また,時間配分や各ステップで使用されたツール・リソースについても含めることで,
作曲プロセスの効率性をより深く分析できる。
アーティファクトモデルでは,作曲活動の中で作成された成果物を分析する。
この成果物には,曲を構成するそれぞれの旋律,コード進行,リズムパターン,
歌詞(必要であれば),楽譜,MIDIデータ,さらにはデモ音源などが含まれる。
これらの要素を細かく分析することで,作曲者がどのような方法でアイディアを具体化し,
音楽を形にしていったのかを明らかにする。このモデルはまた,
それぞれの要素が最終的な作品にどのように統合され,
どのような役割を果たしたかを理解するためにも有用である。
物理モデルでは,作曲活動が行われた環境や,使用された物理的ツールに焦点を当てて分析を行う。
これには,作業空間の設定(例:自宅スタジオ,屋外など)や,使用した楽器,DAW,
録音機材,またはアナログな紙と鉛筆まで含まれる。
このモデルは,作曲環境が創作プロセスにどのように影響を及ぼしたのかを分析する際に有用である。
文化モデルでは,作曲者が参考にした人物や共同作曲者が本人に与えた影響を分析する。
これには,作曲者が好むアーティストや音楽ジャンル,過去の音楽経験,
さらには地域的な音楽文化や社会的背景など,
作曲者の音楽的バックグラウンドを構成する要素全般が含まれる。
影響の源泉としてのアーティストやスタイル,トレンド,または教育的な影響も取り入れ,
作曲者の音楽観やスタイルがどのように形成されてきたのかを深く掘り下げる。
このモデルは,作曲者の作品がどのような文化的文脈の中で生まれたのかを理解する上で必要な視点である。
\subsubsection{ワークモデル分析について}
本項ではワークモデル分析について説明する。
ワークモデル分析は,人間の仕事や活動を詳細に理解し,
それを効率化したり改善したりするための分析手法である。
このアプローチは単に業務を表面的に捉えるのではなく,
その背景にある行動パターンやプロセスを深く掘り下げることに重点を置いている。
特に仕事や作業の流れを細かく分解し,その中で起こるさまざまな要素を体系的に整理することで,
全体の効率や効果を向上させる具体的なヒントを得ることができる。
ワークモデル分析の特徴として,一連の作業を5つのシーケンスに分けて分析する点が挙げられる。
この手法により,各シーケンスにおける作業の流れや,
ユーザがどのようにタスクを進めているのかを詳細に観察することが可能となる。
それぞれのシーケンスを注意深く分けることで,業務の全体像を俯瞰しやすくなるだけでなく,
部分ごとに特化した改善策を立案できるようになる。
さらに,この分析手法を用いることで,
ユーザの行動や意思決定に対するより深い理解が得られる点も大きな利点である。
これによりユーザがどのようなニーズや課題を抱えているのか,また
それを解決するための具体的なサポートがどのように提供できるのかを明確にすることができる。
結果として,ユーザ体験の質を向上させるだけでなく,業務プロセス全体の効率化にもつながる。
\subsection{調査結果}
現在21歳の作曲経験のある男性2人に調査を行った。
それぞれ作曲およびDTMに触れて3年,11年である。
以下に,各ワークモデルに沿った分析における共通点を示す。
\subsubsection{フローモデルにおける共通点}
\begin{itemize}
\item 両者とも初めは独学で作曲を進めており,
最初は自己満足のために作業をしている点。
\item 作曲の過程はメロディの作成から始まり,次第に他の要素(ベース,和音,リズム)を
追加していく流れ。
\item 作曲の初期段階では,アイデアを思いつき少しずつ形にしていくプロセスが多く見られ,作業は一人で進めることが多いが,演奏を通じて修正していく過程。
\item 作曲の時間や作業の進行がアイデアを形にする過程で遅くなることがあり,
アイデアが溜まりすぎてしまう点。
\end{itemize}
\subsubsection{シーケンスモデルにおける共通点}
\begin{itemize}
\item 両者とも作曲が形になるまでに時間がかかり,
特にメロディやベースなどの主要な要素を決めることに時間をかけている点。
\item メロディやベースが決まればリズムや和音などは比較的早く進み,
全体的な形が決まるという流れ。
\item 作曲のスピードが遅く,曲が形になるまでに1~2か月かかるという点。
アイデアを形にする過程で時間を取られ,作曲を続けるモチベーションが維持しにくいという問題。
\end{itemize}
\subsubsection{アーティファクトモデルにおける共通点}
\begin{itemize}
\item 作曲に必要なアイデアをメモや録音機能で記録し,
後で確認して作業を進める方法を取っている点。
歌詞やフレーズ,メロディのアイデアはメモ帳やスマホに録音しておき,後で活用するという形。
\item 音楽制作ツール(DAW,エフェクター,音源など)を使いこなすために,
手元の録音機器や楽器を活用している点。
\end{itemize}
\subsubsection{物理モデルにおける共通点}
\begin{itemize}
\item 両者とも作曲には主にPCを使用し,無料のソフトウウェアを主に使って
録音したり編集したりしている点。
最初は親のPCを借りて使っていたり,簡易的な機材を使用していた。
\item 音楽制作においては,自分の部屋や外の静かな場所を作業場所として選んでおり,
音楽に集中できる環境を重視している点。
\item 機材やソフトウェアの理解が足りないため,設定がうまくいかなかったり
音が出なかったりすることがあり作業が進まない点。
\end{itemize}
\subsubsection{文化モデルにおける共通点}
\begin{itemize}
\item 作曲を始めた当初は他の作曲者やアーティストの影響を受けており,
好きなアーティストのスタイルを参考にして自分の音楽に取り入れていく過程が見られる点。
\item 他のアーティストの曲を参考にして自分の作曲にどう活かすかを考えており,作曲のアプローチを広げるために異なるジャンルを取り入れている点。
\end{itemize}
\section{初心者にとって有用な機能の考察}
前述のヒアリング調査結果および関連研究・サービスの分析から,作曲初心者が直面する根源的な課題は「アイデアの着想」から「楽曲としての具現化」までのプロセスにおける時間的・技術的コストの高さに集約されると考察する。本項では,この課題を解決するために本システムが実装すべき有用な機能について論じる。
ヒアリング調査では,両者ともに「思いついたフレーズをスマートフォンのメモや録音機能で保存」し,「アイデアを形にする工程に多くの時間を要している」という共通点が明らかになった。これは断片的なインスピレーションと,それを音楽として組み立てるDAW上での作業との間に大きな断絶が存在することを示唆している。初心者はこの断絶を乗り越えるための音楽理論の知識やツールの操作スキルが不足しているため,試行錯誤に膨大な時間を費やし,結果としてモチベーションの維持が困難になる。
この課題に対し,本研究では2つのアプローチから有用な機能を考察した。
第一にアイデアと具現化のプロセスを可能な限り一体化させることである。
従来のDAWが持つトラック作成やリージョン配置といった多段階の準備工程を排除し,ユーザーがアプリケーションを起動した瞬間に創作を開始できる環境が必要である。
これを実現するのが,ピアノロールを画面構成の基本としたインターフェースである。
ユーザーは頭に浮かんだメロディをクリックまたキーボードの押下で即座にピアノロール上に配置し,再生して確認できる。
この思考と試聴の高速なサイクルが,アイデアが風化する前に形にすることを可能にし,時間的コストを大幅に削減する。
第二に,ツールの操作自体が音楽的な試行錯誤のプロセスと直結することである。
ヒアリングでは,「メロディやベースが決まればリズムや和音は早く進む」という傾向が見られた。
これは,初心者の創作活動が一つの核となるメロディを発展させていく形で行われることを示している。
ノートのドラッグによる移調(縦移動)やタイミング変更(横移動),端のドラッグによる長さの伸縮,そして範囲選択による一括編集機能は,フレーズを発展させるという行為を直感的に支援するものである。
ユーザーは音楽理論を知らずとも,「このメロディを少し高くしてみよう」「リズムを少しずらしてみよう」といった試行錯誤を視覚的かつ感覚的に行うことができる。
結論として,初心者にとって有用な機能とは多機能な支援や理論の提示ではなく,創作の初期衝動を妨げることなく,試行錯誤のプロセスそのものを高速化・可視化する,極めてシンプルで直感的なインターフェースであると考察される。
\section{システムの提案}
前章の考察から,作曲初心者が直面する根源的な課題は「アイデアの着想」から「楽曲としての具現化」までの時間的・技術的コストの高さにあることが明らかになった。
本研究では,これらの課題を解決するため,図\ref{figure:proposal_concept}に示す領域に特化してユーザーを支援する新しい作曲システムを提案する。
\begin{figure}[htbp]
\centering
\includegraphics[width=80mm]{image.pdf}
\caption{本研究が提案するシステムの支援領域}
\label{figure:proposal_concept}
\end{figure}
図が示すように,作曲初心者が持つ「楽曲のメモ,鼻歌,イメージ」といったインスピレーションは,「操作の煩雑さ」や「知識不足」の壁によって,DAWなどを用いた「本格的な作曲段階」へ到達することが困難である。本システムは,この断絶されたプロセスを繋ぐ架け橋としての役割を担う。
この目的を達成するため,本システムは以下の要件を満たすよう設計する。
\begin{itemize}
\item \textbf{学習コストの最小化:} 専門用語や複雑な画面構成を徹底的に排除し,ユーザーが説明を読まずとも試行錯誤の中で自然に操作を習得できるインターフェースを目指す。
\item \textbf{思考の即時反映:} 頭に浮かんだメロディやハーモニーを,最小限の操作(クリック&ドラッグ)で即座に音として具現化し,試聴できる環境を提供する。
\item \textbf{視覚的・感覚的な編集:} 音楽理論の知識を前提とせず,配置したノートを視覚的に操作すること自体が,メロディを発展させる創造的なプロセスとなるツールであること。
\item \textbf{成果の可搬性確保:} 作成したメロディを標準MIDIファイルという楽譜として出力を可能にすることで,ユーザーに成功体験を提供すると同時に,本格的な作曲段階へと成果を引き継ぐ道筋を用意する。
\end{itemize}
本研究が提案するシステムは,JavaScriptライブラリ「Tone.js」を活用したWebブラウザベースのアプリケーションとして実装される。これにより,インストール不要で誰でも無料で利用でき,上記の要件を満たすことで,作曲の敷居を抜本的に低くすることを目指す。
搭載する具体的な機能については,次章にて詳述する。
\chapter{システムの設計}
本章では3章をもとに,システムの設計を行う。
3.4節で定めた要件を軸に,本システムに必要な機能設計を以下に示す。
\section{全体設計}
本システムは「作曲初心者が直面する心理的・技術的障壁を徹底的に取り除く」という目的を達成するため,ピアノロールを画面中央に据える設計としている。これは楽曲全体の構造を管理するアレンジャービューを基本とする従来のDAWとは異なり,メロディやハーモニーを直接的に構築するピアノロール画面そのものをアプリケーションの核とするアプローチである。
この思想に基づき,システムは以下の三層構造で設計される。
\begin{itemize}
\item \textbf{インターフェース層:} ユーザーが直接触れる部分であり,ピアノロール,タイムライン,各種操作パネルで構成される。描画にはHTML5 Canvas APIを採用し,多数のノートオブジェクトを扱う際のパフォーマンスを確保する。
\item \textbf{データ管理層:} ユーザーの操作によって生成・編集されるノート情報を管理する。データは4つのトラックそれぞれに,ノートの開始位置,音高,長さを記録したオブジェクトの配列として保持される。
\item \textbf{音声エンジン層:} Web Audioライブラリ「Tone.js」が担う。データ管理層のノート情報に基づき,BPMに同期した正確な再生スケジューリングと,シンセサイザーやサンプラーによる音声合成を行う。
\end{itemize}
この設計によりユーザーの直感的なマウス操作(インターフェース層)が,即座にノートデータ(データ管理層)に変換され,遅延なく音声(音声エンジン層)としてフィードバックされるという,高速な試行錯誤のサイクルを実現する。
\section{機能設計}
以下に、各機能の設計について記述する。
\subsection{ピアノロール・エディタ}
本システムの中心機能であり,作曲作業の大部分が行われる領域である。
縦軸に72音階(C1〜B6),横軸に時間を配置する。
グリッドは16分音符を最小単位とし,4分音符,8分音符,小節ごとに線の太さや色を変えることで,音楽的な時間構造の視認性を高めている。
ユーザーは以下のマウス操作により,直感的な編集を行える。
\begin{itemize}
\item \textbf{ノートの作成と削除:} グリッド上の任意の位置をクリックすることで現在選択されている長さのノートが配置される。配置済みのノートを再度クリックすると,そのノートは削除される。
\item \textbf{ノートの移動と移調:} ノートの中央部分をドラッグすることで時間軸(左右)および音高軸(上下)に沿って自由に移動させることができる。
\item \textbf{ノートの長さ変更:} ノートの左右の端をドラッグすることでその長さを16分音符単位で伸縮させることができる。
\item \textbf{範囲選択と一括編集:} 何もない領域からドラッグを開始することで矩形選択ツールが起動する。範囲内に含まれる複数のノートを一度に選択し,グループとしての一括移動,移調,長さ変更,コピー&ペースト,削除といった高度な編集が可能である。
\end{itemize}
\subsection{入力システム}
多様なユーザー環境と制作スタイルに対応するため,複数の入力系統を備える。
\begin{itemize}
\item \textbf{PCキーボード入力:} PCのキーボードをピアノの鍵盤に見立て,リアルタイムで演奏・入力する機能。オクターブの上下もキーボードショートカットで操作可能である。
\item \textbf{外部MIDI機器入力:} Web MIDI APIを介して物理的なMIDIキーボードを接続し,演奏情報を直接入力する機能。接続状態は1秒ごとのポーリングにより自動検知され,仮想MIDIポートは無視することで,物理デバイスのみを認識する設計となっている。
\item \textbf{ステップ入力:} タイムライン上の再生カーソル位置に,選択した長さのノートを一つずつ配置していく入力方式。MIDIやPCキーボードからの入力は,このステップ入力として記録される。
\end{itemize}
\subsection{シーケンサーと再生システム}
入力物の再生にかかる設計について記述する。
\begin{itemize}
\item \textbf{4トラック構成:} すべてのトラックで和音入力が可能な4つのポリフォニック・トラックを搭載。ユーザーはトラック種別を意識することなく,自由にメロディやコードを配置できる。
\item \textbf{トラック表示:} 編集対象として選択されているトラックのノートは通常色で,それ以外のトラックのノートは半透明で描画される。これにより,作業中のパートへの集中と,楽曲全体の構成把握を両立させる。
\item \textbf{再生エンジン:} Tone.Transportを核とし,BPM(Beats Per Minute)に完全に同期した再生,一時停止,停止,ループ再生を制御する。再生中は,タイムラインとピアノロール上に再生位置を示すカーソルが毎秒約60回更新され,ユーザーに正確な視覚的フィードバックを提供する。
\item \textbf{ライブアップデート:} 再生中に加えられたノートの編集(追加,削除,移動など)は,次のループの開始時点で再生スケジュールに自動的に反映される。これにより,再生を止めることなくシームレスな試行錯誤が可能である。
\end{itemize}
\subsection{音源およびユーティリティ機能}
\begin{itemize}
\item \textbf{楽器選択と拡張性:} 各トラックには,シンセサイザー,ピアノ,バイオリン,トランペットといった音源を個別に割り当てることができる。本システムでは,音源の定義をモジュール化しており,新たな音源を追加することが容易な設計となっている。これにより,将来的にユーザーが好みの楽器を追加したり,特殊なサウンド(効果音など)を組み込んだりといった拡張が可能である。
\item \textbf{音源のマッピング:} ピアノなどのアコースティック楽器には,Tone.Samplerを用いている。これは,実際の楽器から録音された複数の音源を音高ごとにマッピングするもので,例えばピアノ音源には,4つの異なるオクターブ(C3, C4, C5, C6)から録音されたサンプルを割り当てている。これにより,単一のサンプルをピッチシフトする場合に比べて,幅広い音域でリアルな音色を再現する。
\item \textbf{メトロノーム:} 4分音符または8分音符単位でクリック音を鳴らすことが可能。小節の頭では音高と音量を変えることでアクセントを示し,正確なリズム入力を補助する。
\item \textbf{MIDIファイル入出力:} 作成した楽曲を標準MIDIファイルとして書き出す機能,および既存のMIDIファイルを読み込んで編集する機能を搭載している。
\end{itemize}
\chapter{システム開発}
本章では4章で設計したシステムの仕様に基づき,実際の開発プロセスについて詳述する。
開発にはWeb標準技術であるHTML, CSS, JavaScriptを用い,中核となる音声処理とスケジューリングにはWeb Audioライブラリ「Tone.js」を全面的に活用した。
本章では,まず開発環境を述べ,次にシステムの根幹をなすピアノロール描画,ユーザーからの入力を受け付けるイベント処理,そして音楽を再生する音声エンジンという3つの主要な実装について解説する。
\section{開発環境}
\begin{itemize}
\item 開発言語
\begin{itemize}
\item HTML5
\item CSS - 2.1 以降互換
\item JavaScript
\begin{itemize}
\item Tone.js - 14.8.49
\end{itemize}
\end{itemize}
\item ブラウザ
\begin{itemize}
\item Mozilla Firefox - 132.0.1
\end{itemize}
\end{itemize}
\section{インターフェース層の実装}
ユーザーが直接操作するUIの構築について述べる。本システムは,描画パフォーマンスとインタラクティブ性を両立させるため,主要な描画領域にHTML5 Canvasを採用している。
\subsection{ピアノロールとタイムラインの描画}
ピアノロールとタイムラインは, canvas 要素を用いてJavaScriptによって動的に描画される。requestAnimationFrame を用いた描画ループを構築し,再生カーソルの動きやノートのハイライトを毎秒約60回の頻度で更新することで,滑らかな視覚的フィードバックを実現している。以下に,ピアノロールのグリッド線とノートを描画する処理の骨子を示す。
\begin{itembox}[l]{ピアノロール描画処理の骨子}
\scriptsize{\begin{verbatim}
function drawPianoRoll() {
// 1. Canvasをクリア
ctx.clearRect(0, 0, canvas.width, canvas.height);
for (let i = 0; i <= numColumns; i++) {
const x = pitchHeaderWidth + i * cellWidth;
// iの値に応じて線の太さや色を変更
ctx.beginPath();
ctx.moveTo(x, 0);
ctx.lineTo(x, canvas.height);
ctx.stroke();
}
// (横線の描画も同様)
// 3. 各トラックのノートを描画
drawNotes(pianoRoll1, "#4CAF50");
drawNotes(pianoRoll2, "#3498DB");
//...
}
\end{verbatim}}
\end{itembox}
\subsection{マウスイベント処理}
Canvas上で直感的なノート編集を実現するため,mousedown, mousemove, mouseupの3つのマウスイベントを連携させ,ユーザーの操作意図を解釈するロジックを実装した。
マウスが押された位置がノートの上か,ノートの端か,あるいは何もない場所かを判定し,それぞれ「移動」「リサイズ」「範囲選択」といった異なるモードに遷移する。
以下に,マウスダウン時の処理の骨子を示す。
\begin{itembox}[l]{マウスダウンイベント処理の骨子}
\scriptsize{\begin{verbatim}
function handleMouseDown(event) {
const pos = getMousePos(event);
const clickedNote = findNoteAt(pos); // クリック位置のノートを探す
if (clickedNote) {
// ノートの上でクリックされた場合
if (isRightEdge(pos, clickedNote)) {
dragMode = 'resize-right';
} else {
dragMode = 'move';
}
// ...
} else {
// 空の場所でクリックされた場合
dragMode = 'select-area';
// ...
}
// windowにmousemoveとmouseupのリスナーを追加
}
\end{verbatim}}
\end{itembox}
\section{音声エンジン層の実装}
本システムの音声処理は,すべてTone.jsによって担われている。ユーザーの操作やデータに応じて,リアルタイムに音声を合成・再生する仕組みについて述べる。
\subsection{音源の初期化}
本システムは,シンセサイザーとサンプラーの2種類の音源をサポートする。これらは,ユーザーがUIから楽器を選択するたびに動的にインスタンスが生成される設計となっている。特にピアノなどのアコースティック楽器には,複数の音高の音声ファイルをマッピングしたTone.Samplerを用いることで,リアリティの高い音色を実現している。以下に,4トラック分の楽器インスタンスを定義するコードを示す。
\begin{itembox}[l]{楽器音源の定義}
\scriptsize{\begin{verbatim}
const instruments = {
"synth": () => new Tone.PolySynth(Tone.Synth).toDestination(),
"piano": () => new Tone.Sampler({
urls: { "C4":"C4.mp3", "C5":"C5.mp3" },
baseUrl: "..."
}).toDestination(),
// ... 他の楽器
};
// 各トラックの初期楽器を設定
let instrument1 = instruments.synth();
let instrument2 = instruments.synth();
// ...
\end{verbatim}}
\end{itembox}
\subsection{再生スケジューリング}
BPMに同期した正確な再生を実現するため,Tone.Transportをマスタークロックとして使用する。
Tone.Transport上に,各トラックのノート情報を再生するためのTone.Partをスケジュールする。
これにより再生ボタンが押された際に,すべてのノートが正しいタイミングと長さで再生される。
再生中に加えられた編集を次回のループに反映させるため,ループの開始地点でTone.Partを再生成するライブアップデート機能を実装している。
\begin{itembox}[l]{再生パートのスケジューリング処理の骨子}
\scriptsize{\begin{verbatim}
function setupPlayback() {
// 既存のPartを破棄
if (part1) part1.dispose();
// 内部データをTone.Partが解釈できる形式に変換
const partData = convertToPartData(pianoRoll1);
// 新しいPartを作成し、Transportにスケジュール
part1 = new Tone.Part((time, value) => {
instrument1.triggerAttackRelease(
value.note, value.duration, time
);
}, partData).start(0);
}
\end{verbatim}}
\end{itembox}
\section{外部連携機能の実装}
\subsection{Web MIDI APIによるハードウェア連携}
市販のMIDIキーボードとの連携にはWeb MIDI APIを利用する。
navigator.requestMIDIAccess()でデバイスへのアクセス許可を要求し,取得したMIDIAccessオブジェクトを介して入力デバイスを監視する。
本システムでは,ブラウザ間の挙動差異を吸収するため,setIntervalを用いたポーリング方式でデバイスの接続・切断を1秒ごとにチェックしている。
デバイスからMIDIメッセージを受信すると,onmidimessageイベントが発火し,ノートオン/ノートオフ情報を抽出して音声再生やノート記録のトリガーとして使用する。
\subsection{@tonejs/midiによるファイル入出力}
標準MIDIファイル(SMF)との互換性を確保するため,@tonejs/midiライブラリを導入した。
\begin{itemize}
\item \textbf{書き出し時:} 内部データ {start-16th, scale, length-16th} を,現在のBPMに基づいて秒単位の時間と長さに変換し,Midi.Track.addNote()メソッドでMIDIイベントとして追加する。4つのトラックを個別のMIDIトラックとして書き込むことで,マルチトラック構造を維持する。
\item \textbf{読み込み時:} 読み込んだMIDIファイルのtrack.notes配列を走査し,各ノートのtimeとdurationを,現在のBPMに基づいて16分音符単位の値に逆変換して内部データ構造に格納する。
\end{itemize}
\chapter{結論と今後の展望について}
本章では,本研究の結論と今後の展望ついて説明する。
\section{結論}
現在本システムの開発状況は,2トラックの独立した入力および再生機能の実装が完了し,
これらトラックの同時演奏が可能な状態に達している。
ユーザは2つのトラックを別々に録音,編集,再生できるだけでなく,
これらを同時に重ね合わせた演奏も実現されている。
この段階で,基本的な多重録音機能とリアルタイム演奏機能の試用が可能となっている。
社会調査として行ったヒアリングでは,
各ワークモデルに沿った分析における共通点を明らかにすることが出来た。
初心者にとって有用な機能の考察において分析結果を十分に活かすことが出来た。
\section{今後の展望}
本項では研究の展望について記す。
結論にて先述した社会調査とシステム開発の方向性について焦点を当てて記述している。
\subsection{社会調査}
本研究では,作曲に関わる人々を対象にヒアリング調査を行い,
その内容をワークモデル分析を用いて解析した。調査対象としては,
異なる背景や経験を持ちながら作曲に触れ始めた人々を選定したが,
社会全体に共通する課題を明確に定義することが困難であった。
この困難の要因として,主に二つの問題が挙げられる。
一つ目は,調査対象の母数が少なかったことである。
調査対象者が限られていたため,得られるデータの多様性が不足し,
一般化可能な結論を導くのが難しくなった。
特に,作曲という分野では個々の背景や経験が非常に多様であり,
より広範なサンプルサイズが必要であった。二つ目は,ヒアリングで用いた質問内容が
一部曖昧であった点である。質問設計の段階で具体性や精緻さが欠けていたため,
回答者から得られる情報が断片的で,調査の目的に沿った課題の抽出が困難であった。
これらの問題点に対する改善策として,まず調査対象の母数を増やす必要がある。
多様な人々の意見や経験を取り入れることで,より包括的で普遍的な結論を導き出すことができる。
その際には,調査対象者の選定基準を明確にし,
背景や経験が異なる複数のグループからバランスよく対象者を抽出することが求められる。
また,調査方法の抜本的な見直しも必要である。
具体的には,質問内容を精査し,回答者にとって明確かつ答えやすい設問を設計することが重要である。
ヒアリング調査に加えて,アンケート調査や観察調査といった多様な調査手法を併用する事も視野に入れ,
データの信頼性と説得力を向上させる。
\subsection{システムの改良}
次の開発段階に進むにあたり,
改めて行う社会調査の結果に基づき,次なる方向性を検討し,
ユーザ体験をさらに向上させる機能やインターフェースの改善に取り組む。
このプロセスにより,本システムが音楽制作の現場で一層価値あるツールとなることを目指している。
\begin{thebibliography}{}
\bibitem{history}
星合 厚 . ``電子楽器とDTM開発の舞台裏'' . 電子情報通信学会誌 . 2003 .
\url{https://www.jstage.jst.go.jp/article/isciesci/46/11/46_KJ00001013127/_article/-char/ja/} , (参照 2025-06-03) .
\bibitem{bandlab}
BandLab . ``BandLab'' . BandLab Technologies . 2024 .
\url{https://www.bandlab.com/} , (参照 2024-11-15) .
\bibitem{soundation}
Soundation Education . ``Inspiration'' . Soundation . 2024 .
\url{https://edu.soundation.com/teacher-resources/inspiration} , (参照 2024-11-15) .
\bibitem{sakuhu}
丹羽 孔明 , 湯川 恵子 , 木下 正博 , 川上 敬 . ``作曲者の作風を考慮したメロディ自動生成システムの構築'' . 日本感性工学会大会予稿集 . 2011 .
\url{https://www.jstage.jst.go.jp/article/pscjspe/2011A/0/2011A_0_645/_pdf/-char/ja} , (参照 2024-07-16) .
\bibitem{band}
増田 英之 . ``バンド演奏のための作曲支援システム提案'' . 日本デザイン学会研究発表大会概要集 . 2009 .
\url{https://www.jstage.jst.go.jp/article/jssd/56/0/56_0_C20/_pdf/-char/ja} , (参照 2024-07-16) .
\bibitem{marble}
大平 雅雄 , 木村 昌樹 , 松本 健一 . ``ライトユーザを対象としたオンライン協調作曲支援システム'' . ヒューマンインタフェース学会論文誌 . 2010 .
\url{https://www.jstage.jst.go.jp/article/his/12/3/12_219/_pdf/-char/ja} , (参照 2024-11-15) .
\bibitem{class}
小松 隆行 . ``音楽制作授業の実践'' . パソコン利用教育学会全国大会講演論文集 . 2017 .
\url{https://conference.ciec.or.jp/themes/root@pcc/2017pcc/papers/pdf/pcc078.pdf} , (参照 2024-11-15) .
\bibitem{tonejs}
Yotam Mann . ``Tone.js'' . Tone.js Project . 2024 .
\url{https://tonejs.github.io/} , (参照 2024-05-27) .
%% \bibitem{soundtrap}
%% Soundtrap US Inc. . ``Soundtrap'' . Soundtrap . 2024 .
%% \url{https://www.soundtrap.com/musicmakers} , (参照 2024-07-16) .
%% \bibitem{sauna}
%% Naive Solutions . ``AudioSauna'' . AudioSauna . 2024 .
%% \url{http://www.audiosauna.com/} , (参照 2024-07-16) .
%% \bibitem{hyogenshien}
%% 西本 一志 . ``音楽における創造的表現の支援'' . 北陸先端科学技術大学院大学 . 2003 .
%% \url{http://www.jaist.ac.jp/ks/labs/knishi/IEICE2003.pdf} , (参照 2024-08-06) .
%% \bibitem{interface}
%% 長嶋 洋一 . ``音楽/芸術表現のための新インターフェース'' . 静岡文化芸術大学 . 2003 .
%% \url{https://nagasm.org/ASL/suac2003/suac2003.pdf} , (参照 2024-08-06) .
%% \bibitem{class}
%% 安藤 大地 , 伊庭 斉志 . ``木構造型遺伝子を用いたクラシック音楽作曲支援システム: CACIE'' . 人工知能学会全国大会論文集 . 2007 .
%% \url{https://www.jstage.jst.go.jp/article/pjsai/JSAI07/0/JSAI07_3C72/_pdf/-char/ja} , (参照 2024-07-16) .
\end{thebibliography}
\end{document}