論文の概要: Models of Music Cognition and Composition
- arxiv url: http://arxiv.org/abs/2208.06878v1
- Date: Sun, 14 Aug 2022 16:27:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-16 15:08:48.490549
- Title: Models of Music Cognition and Composition
- Title(参考訳): 音楽の認知と作曲のモデル
- Authors: Abhimanyu Sethia and Aayush
- Abstract要約: まず、音楽が認知科学者に関係している理由を動機付け、音楽認知の計算モデリングへのアプローチの概要を述べる。
次に,非コンピュータモデル,非認知モデル,計算認知モデルなど,音楽知覚の様々なモデルに関する文献をレビューする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Much like most of cognition research, music cognition is an interdisciplinary
field, which attempts to apply methods of cognitive science (neurological,
computational and experimental) to understand the perception and process of
composition of music. In this paper, we first motivate why music is relevant to
cognitive scientists and give an overview of the approaches to computational
modelling of music cognition. We then review literature on the various models
of music perception, including non-computational models, computational
non-cognitive models and computational cognitive models. Lastly, we review
literature on modelling the creative behaviour and on computer systems capable
of composing music. Since a lot of technical terms from music theory have been
used, we have appended a list of relevant terms and their definitions at the
end.
- Abstract(参考訳): 多くの認知研究と同様に、音楽認知は学際的な分野であり、認知科学(神経学、計算学、実験学)の手法を適用して音楽の構成の知覚と過程を理解する。
本稿では,音楽が認知科学者に関係している理由を最初に動機付け,音楽認知の計算モデリングへのアプローチの概要を示す。
次に,非コンピュータモデル,非認知モデル,計算認知モデルなど,音楽知覚の様々なモデルに関する文献をレビューする。
最後に,創造的行動のモデル化に関する文献と,楽曲を作曲できるコンピュータシステムについて考察する。
音楽理論から多くの技術的用語が使われてきたので、我々は最後に関連する用語とその定義のリストを付加した。
関連論文リスト
- A Survey on Compositional Learning of AI Models: Theoretical and Experimetnal Practices [15.92779896185647]
構成学習は人間の認知、特に人間の言語理解と視覚知覚において重要である。
インテリジェンスにおいて重要な役割を担っているにもかかわらず、体系的な理論的、実験的研究方法論が欠如している。
本稿では,AIモデルの構成学習に関する文献と,認知研究との関わりについて考察する。
論文 参考訳(メタデータ) (2024-06-13T03:46:21Z) - MeLFusion: Synthesizing Music from Image and Language Cues using Diffusion Models [57.47799823804519]
私たちは、ミュージシャンが映画の脚本だけでなく、視覚化を通して音楽を作る方法にインスピレーションを受けています。
本稿では,テキスト記述と対応する画像からの手がかりを効果的に利用して音楽を合成するモデルであるMeLFusionを提案する。
音楽合成パイプラインに視覚情報を加えることで、生成した音楽の質が大幅に向上することを示す。
論文 参考訳(メタデータ) (2024-06-07T06:38:59Z) - Music Composition with Deep Learning: A Review [1.7188280334580197]
創造性のある音楽を生成するための,現在のディープラーニングモデルの能力について分析する。
理論的観点からこれらのモデルと作曲過程を比較した。
論文 参考訳(メタデータ) (2021-08-27T13:53:53Z) - MusicBERT: Symbolic Music Understanding with Large-Scale Pre-Training [97.91071692716406]
シンボリック・ミュージックの理解(シンボリック・ミュージックの理解)とは、シンボリック・データから音楽を理解することを指す。
MusicBERTは、音楽理解のための大規模な事前訓練モデルである。
論文 参考訳(メタデータ) (2021-06-10T10:13:05Z) - Music Embedding: A Tool for Incorporating Music Theory into
Computational Music Applications [0.3553493344868413]
音楽理論と簡潔な方法で音楽をデジタル的に表現することが重要である。
音楽理論の活用の観点からは、既存の音楽表現のアプローチは効果がない。
論文 参考訳(メタデータ) (2021-04-24T04:32:45Z) - Music Harmony Generation, through Deep Learning and Using a
Multi-Objective Evolutionary Algorithm [0.0]
本稿では,ポリフォニック音楽生成のための遺伝的多目的進化最適化アルゴリズムを提案する。
ゴールの1つは音楽の規則と規則であり、他の2つのゴール、例えば音楽の専門家や普通のリスナーのスコアとともに、最も最適な反応を得るために進化のサイクルに適合する。
その結果,提案手法は,聞き手を引き寄せながら文法に従う調和音とともに,所望のスタイルや長さの難易度と快適さを生み出すことができることがわかった。
論文 参考訳(メタデータ) (2021-02-16T05:05:54Z) - Formalising Concepts as Grounded Abstractions [68.24080871981869]
このレポートは、表現学習が生データから概念を誘導する方法を示しています。
このレポートの主な技術的目標は、表現学習のテクニックが概念空間の格子理論的定式化とどのように結婚できるかを示すことである。
論文 参考訳(メタデータ) (2021-01-13T15:22:01Z) - Sequence Generation using Deep Recurrent Networks and Embeddings: A
study case in music [69.2737664640826]
本稿では,異なる種類の記憶機構(メモリセル)について評価し,音楽合成分野におけるその性能について検討する。
提案したアーキテクチャの性能を自動評価するために,定量的な測定値のセットが提示される。
論文 参考訳(メタデータ) (2020-12-02T14:19:19Z) - Adaptive music: Automated music composition and distribution [0.0]
進化探索に基づくアルゴリズム合成法であるメロミクスを提案する。
このシステムは、様々な種類の音楽を作るために、高い創造力と汎用性を示してきた。
これはまた、全く新しい応用のセットの出現を可能にした。
論文 参考訳(メタデータ) (2020-07-25T09:38:06Z) - Artificial Musical Intelligence: A Survey [51.477064918121336]
音楽は、機械学習と人工知能研究の領域としてますます広まりつつある。
この記事では、音楽知能の定義を提供し、その構成成分の分類を導入し、その追求に耐えうる幅広いAI手法を調査します。
論文 参考訳(メタデータ) (2020-06-17T04:46:32Z) - Multi-Modal Music Information Retrieval: Augmenting Audio-Analysis with
Visual Computing for Improved Music Video Analysis [91.3755431537592]
この論文は、音声分析とコンピュータビジョンを組み合わせて、マルチモーダルの観点から音楽情報検索(MIR)タスクにアプローチする。
本研究の主な仮説は、ジャンルやテーマなど特定の表現的カテゴリーを視覚的内容のみに基づいて認識できるという観察に基づいている。
実験は、3つのMIRタスクに対して行われ、アーティスト識別、音楽ジェネア分類、クロスジェネア分類を行う。
論文 参考訳(メタデータ) (2020-02-01T17:57:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。