論文の概要: Models of Music Cognition and Composition
- arxiv url: http://arxiv.org/abs/2208.06878v1
- Date: Sun, 14 Aug 2022 16:27:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-16 15:08:48.490549
- Title: Models of Music Cognition and Composition
- Title(参考訳): 音楽の認知と作曲のモデル
- Authors: Abhimanyu Sethia and Aayush
- Abstract要約: まず、音楽が認知科学者に関係している理由を動機付け、音楽認知の計算モデリングへのアプローチの概要を述べる。
次に,非コンピュータモデル,非認知モデル,計算認知モデルなど,音楽知覚の様々なモデルに関する文献をレビューする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Much like most of cognition research, music cognition is an interdisciplinary
field, which attempts to apply methods of cognitive science (neurological,
computational and experimental) to understand the perception and process of
composition of music. In this paper, we first motivate why music is relevant to
cognitive scientists and give an overview of the approaches to computational
modelling of music cognition. We then review literature on the various models
of music perception, including non-computational models, computational
non-cognitive models and computational cognitive models. Lastly, we review
literature on modelling the creative behaviour and on computer systems capable
of composing music. Since a lot of technical terms from music theory have been
used, we have appended a list of relevant terms and their definitions at the
end.
- Abstract(参考訳): 多くの認知研究と同様に、音楽認知は学際的な分野であり、認知科学(神経学、計算学、実験学)の手法を適用して音楽の構成の知覚と過程を理解する。
本稿では,音楽が認知科学者に関係している理由を最初に動機付け,音楽認知の計算モデリングへのアプローチの概要を示す。
次に,非コンピュータモデル,非認知モデル,計算認知モデルなど,音楽知覚の様々なモデルに関する文献をレビューする。
最後に,創造的行動のモデル化に関する文献と,楽曲を作曲できるコンピュータシステムについて考察する。
音楽理論から多くの技術的用語が使われてきたので、我々は最後に関連する用語とその定義のリストを付加した。
関連論文リスト
- Mode-conditioned music learning and composition: a spiking neural network inspired by neuroscience and psychology [5.2419221159594676]
そこで我々は,脳のメカニズムや心理的理論にインスパイアされたスパイクニューラルネットワークを提案し,音楽モードとキーを表現する。
我々の研究は、音楽を学び、生成するだけでなく、人間の認知と人工知能のギャップを埋めるシステムを作ることを目指している。
論文 参考訳(メタデータ) (2024-11-22T07:29:26Z) - Do Music Generation Models Encode Music Theory? [10.987131058422742]
テンポ、時間シグネチャ、音符、インターバル、スケール、コード、コード進行の概念からなる合成MIDIおよびオーディオ音楽理論のデータセットであるSynTheoryを紹介する。
次に,音楽基盤モデルにおけるこれらの音楽理論の概念を探索し,それらの概念が内部表現の中でいかに強くエンコードされているかを評価する枠組みを提案する。
以上の結果から,音楽理論の概念は基礎モデルにおいて識別可能であり,検出できる程度はモデルのサイズや層によって異なることが示唆された。
論文 参考訳(メタデータ) (2024-10-01T17:06:30Z) - A Survey of Foundation Models for Music Understanding [60.83532699497597]
この研究は、AI技術と音楽理解の交差に関する初期のレビューの1つである。
音楽理解能力に関して,近年の大規模音楽基盤モデルについて検討,分析,検証を行った。
論文 参考訳(メタデータ) (2024-09-15T03:34:14Z) - Foundation Models for Music: A Survey [77.77088584651268]
ファンデーションモデル(FM)は音楽を含む様々な分野に大きな影響を与えている。
本総説では,音楽の事前学習モデルと基礎モデルについて概観する。
論文 参考訳(メタデータ) (2024-08-26T15:13:14Z) - MeLFusion: Synthesizing Music from Image and Language Cues using Diffusion Models [57.47799823804519]
私たちは、ミュージシャンが映画の脚本だけでなく、視覚化を通して音楽を作る方法にインスピレーションを受けています。
本稿では,テキスト記述と対応する画像からの手がかりを効果的に利用して音楽を合成するモデルであるMeLFusionを提案する。
音楽合成パイプラインに視覚情報を加えることで、生成した音楽の質が大幅に向上することを示す。
論文 参考訳(メタデータ) (2024-06-07T06:38:59Z) - Music Composition with Deep Learning: A Review [1.7188280334580197]
創造性のある音楽を生成するための,現在のディープラーニングモデルの能力について分析する。
理論的観点からこれらのモデルと作曲過程を比較した。
論文 参考訳(メタデータ) (2021-08-27T13:53:53Z) - MusicBERT: Symbolic Music Understanding with Large-Scale Pre-Training [97.91071692716406]
シンボリック・ミュージックの理解(シンボリック・ミュージックの理解)とは、シンボリック・データから音楽を理解することを指す。
MusicBERTは、音楽理解のための大規模な事前訓練モデルである。
論文 参考訳(メタデータ) (2021-06-10T10:13:05Z) - Music Harmony Generation, through Deep Learning and Using a
Multi-Objective Evolutionary Algorithm [0.0]
本稿では,ポリフォニック音楽生成のための遺伝的多目的進化最適化アルゴリズムを提案する。
ゴールの1つは音楽の規則と規則であり、他の2つのゴール、例えば音楽の専門家や普通のリスナーのスコアとともに、最も最適な反応を得るために進化のサイクルに適合する。
その結果,提案手法は,聞き手を引き寄せながら文法に従う調和音とともに,所望のスタイルや長さの難易度と快適さを生み出すことができることがわかった。
論文 参考訳(メタデータ) (2021-02-16T05:05:54Z) - Adaptive music: Automated music composition and distribution [0.0]
進化探索に基づくアルゴリズム合成法であるメロミクスを提案する。
このシステムは、様々な種類の音楽を作るために、高い創造力と汎用性を示してきた。
これはまた、全く新しい応用のセットの出現を可能にした。
論文 参考訳(メタデータ) (2020-07-25T09:38:06Z) - Artificial Musical Intelligence: A Survey [51.477064918121336]
音楽は、機械学習と人工知能研究の領域としてますます広まりつつある。
この記事では、音楽知能の定義を提供し、その構成成分の分類を導入し、その追求に耐えうる幅広いAI手法を調査します。
論文 参考訳(メタデータ) (2020-06-17T04:46:32Z) - Multi-Modal Music Information Retrieval: Augmenting Audio-Analysis with
Visual Computing for Improved Music Video Analysis [91.3755431537592]
この論文は、音声分析とコンピュータビジョンを組み合わせて、マルチモーダルの観点から音楽情報検索(MIR)タスクにアプローチする。
本研究の主な仮説は、ジャンルやテーマなど特定の表現的カテゴリーを視覚的内容のみに基づいて認識できるという観察に基づいている。
実験は、3つのMIRタスクに対して行われ、アーティスト識別、音楽ジェネア分類、クロスジェネア分類を行う。
論文 参考訳(メタデータ) (2020-02-01T17:57:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。