論文の概要: Mode-conditioned music learning and composition: a spiking neural network inspired by neuroscience and psychology
- arxiv url: http://arxiv.org/abs/2411.14773v2
- Date: Tue, 14 Jan 2025 05:16:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-15 13:24:59.448668
- Title: Mode-conditioned music learning and composition: a spiking neural network inspired by neuroscience and psychology
- Title(参考訳): モード条件の音楽学習と作曲:神経科学と心理学に触発されたスパイキングニューラルネットワーク
- Authors: Qian Liang, Yi Zeng, Menghaoran Tang,
- Abstract要約: そこで我々は,脳のメカニズムや心理的理論にインスパイアされたスパイクニューラルネットワークを提案し,音楽モードとキーを表現する。
我々の研究は、音楽を学び、生成するだけでなく、人間の認知と人工知能のギャップを埋めるシステムを作ることを目指している。
- 参考スコア(独自算出の注目度): 5.2419221159594676
- License:
- Abstract: Musical mode is one of the most critical element that establishes the framework of pitch organization and determines the harmonic relationships. Previous works often use the simplistic and rigid alignment method, and overlook the diversity of modes. However, in contrast to AI models, humans possess cognitive mechanisms for perceiving the various modes and keys. In this paper, we propose a spiking neural network inspired by brain mechanisms and psychological theories to represent musical modes and keys, ultimately generating musical pieces that incorporate tonality features. Specifically, the contributions are detailed as follows: 1) The model is designed with multiple collaborated subsystems inspired by the structures and functions of corresponding brain regions; 2)We incorporate mechanisms for neural circuit evolutionary learning that enable the network to learn and generate mode-related features in music, reflecting the cognitive processes involved in human music perception. 3)The results demonstrate that the proposed model shows a connection framework closely similar to the Krumhansl-Schmuckler model, which is one of the most significant key perception models in the music psychology domain. 4) Experiments show that the model can generate music pieces with characteristics of the given modes and keys. Additionally, the quantitative assessments of generated pieces reveals that the generating music pieces have both tonality characteristics and the melodic adaptability needed to generate diverse and musical content. By combining insights from neuroscience, psychology, and music theory with advanced neural network architectures, our research aims to create a system that not only learns and generates music but also bridges the gap between human cognition and artificial intelligence.
- Abstract(参考訳): 音楽モードは、ピッチ・オーガナイゼーションの枠組みを確立し、調和関係を決定する最も重要な要素の1つである。
以前の作品は、しばしば単純で堅固なアライメント法を使用し、モードの多様性を見落としている。
しかし、AIモデルとは対照的に、人間は様々なモードやキーを認識する認知メカニズムを持っている。
本稿では,脳のメカニズムや心理理論にインスパイアされたスパイクニューラルネットワークを提案する。
具体的には,1)脳領域の構造と機能にインスパイアされた複数の協調的なサブシステムを用いてデザインされたモデル,2)人間の音楽知覚に関わる認知過程を反映して,ネットワークが音楽のモード関連の特徴を学習し生成する神経回路進化学習のメカニズムを取り入れたモデルである。
3)提案モデルは音楽心理学領域において最も重要な知覚モデルの一つであるクルムハンスル・シュマックラーモデルと密接に類似した接続構造を示す。
4)実験により,モデルが与えられたモードとキーの特徴を持つ楽曲を生成できることが示された。
さらに、生成した楽曲の定量的評価により、生成した楽曲は、多彩で音楽的な内容を生成するために必要な調性特性と旋律的適応性の両方を有することが明らかとなった。
我々の研究は、神経科学、心理学、音楽理論からの洞察と高度なニューラルネットワークアーキテクチャを組み合わせることで、音楽を学び、生成するだけでなく、人間の認知と人工知能のギャップを埋めるシステムを作ることを目指している。
関連論文リスト
- Artificial Kuramoto Oscillatory Neurons [65.16453738828672]
しきい値単位の動的代替として人工内蔵ニューロン(AKOrN)を導入する。
このアイデアは、幅広いタスクにまたがってパフォーマンス改善をもたらすことを示しています。
これらの経験的結果は、神経表現の最も基本的なレベルにおいて、私たちの仮定の重要性を示していると信じている。
論文 参考訳(メタデータ) (2024-10-17T17:47:54Z) - A Survey of Foundation Models for Music Understanding [60.83532699497597]
この研究は、AI技術と音楽理解の交差に関する初期のレビューの1つである。
音楽理解能力に関して,近年の大規模音楽基盤モデルについて検討,分析,検証を行った。
論文 参考訳(メタデータ) (2024-09-15T03:34:14Z) - Foundation Models for Music: A Survey [77.77088584651268]
ファンデーションモデル(FM)は音楽を含む様々な分野に大きな影響を与えている。
本総説では,音楽の事前学習モデルと基礎モデルについて概観する。
論文 参考訳(メタデータ) (2024-08-26T15:13:14Z) - Simulation of Neural Responses to Classical Music Using Organoid Intelligence Methods [0.0]
オルガノイドインテリジェンスとディープラーニングモデルは、クラシック音楽に対する神経反応をシミュレートし分析する約束を示す。
本稿では,オルガノイド学習モデルのシミュレーションを容易にする革新的なツールであるPyOrganoidライブラリを提案する。
論文 参考訳(メタデータ) (2024-07-25T22:11:30Z) - Structuring Concept Space with the Musical Circle of Fifths by Utilizing Music Grammar Based Activations [0.0]
スパイクネットワークなどの離散ニューラルネットワークの構造とピアノ作品の構成との興味深い類似性について検討する。
スパイクニューラルネットワークにおけるアクティベーションの制御に音楽文法を活用する新しい手法を提案する。
本稿では,本モデルにおける概念マップが5番目の音楽サークルによって構成されていることを示し,深層学習アルゴリズムにおける音楽理論の原理を活用する可能性を明らかにする。
論文 参考訳(メタデータ) (2024-02-22T03:28:25Z) - Brain-Inspired Machine Intelligence: A Survey of
Neurobiologically-Plausible Credit Assignment [65.268245109828]
本稿では,神経生物学にインスパイアされた,あるいは動機付けられた人工ニューラルネットワークにおける信用割当を行うアルゴリズムについて検討する。
我々は、脳にインスパイアされた学習スキームを6つの一般的なファミリーにまとめ、これらを誤りのバックプロパゲーションの文脈で検討する。
本研究の成果は,神経ミメティックシステムとその構成的学習プロセスの今後の発展を促進することを目的としている。
論文 参考訳(メタデータ) (2023-12-01T05:20:57Z) - Relating Human Perception of Musicality to Prediction in a Predictive
Coding Model [0.8062120534124607]
人間の音楽知覚をモデル化するための予測符号化にインスパイアされたニューラルネットワークの利用について検討する。
このネットワークは階層視覚野における反復的相互作用の計算神経科学理論に基づいて開発された。
このネットワークを用いて階層的な聴覚システムをモデル化し、ランダムなピッチ列の楽しさに関して、人間と同じような選択をするかどうかを検討する。
論文 参考訳(メタデータ) (2022-10-29T12:20:01Z) - Models of Music Cognition and Composition [0.0]
まず、音楽が認知科学者に関係している理由を動機付け、音楽認知の計算モデリングへのアプローチの概要を述べる。
次に,非コンピュータモデル,非認知モデル,計算認知モデルなど,音楽知覚の様々なモデルに関する文献をレビューする。
論文 参考訳(メタデータ) (2022-08-14T16:27:59Z) - Music Harmony Generation, through Deep Learning and Using a
Multi-Objective Evolutionary Algorithm [0.0]
本稿では,ポリフォニック音楽生成のための遺伝的多目的進化最適化アルゴリズムを提案する。
ゴールの1つは音楽の規則と規則であり、他の2つのゴール、例えば音楽の専門家や普通のリスナーのスコアとともに、最も最適な反応を得るために進化のサイクルに適合する。
その結果,提案手法は,聞き手を引き寄せながら文法に従う調和音とともに,所望のスタイルや長さの難易度と快適さを生み出すことができることがわかった。
論文 参考訳(メタデータ) (2021-02-16T05:05:54Z) - Towards a Neural Model for Serial Order in Frontal Cortex: a Brain
Theory from Memory Development to Higher-Level Cognition [53.816853325427424]
そこで本研究では,未熟な前頭前野 (PFC) が側頭葉信号の階層的パターンを検出する主要な機能を利用していることを提案する。
我々の仮説では、PFCは順序パターンの形で時間的配列の階層構造を検出し、それらを脳の異なる部分で階層的に情報をインデックスするために利用する。
これにより、抽象的な知識を操作し、時間的に順序付けられた情報を計画するための言語対応の脳にツールを提供する。
論文 参考訳(メタデータ) (2020-05-22T14:29:51Z) - Music Gesture for Visual Sound Separation [121.36275456396075]
ミュージック・ジェスチャ(Music Gesture)は、音楽演奏時の演奏者の身体と指の動きを明示的にモデル化するキーポイントに基づく構造化表現である。
まず、コンテキスト対応グラフネットワークを用いて、視覚的コンテキストと身体力学を統合し、その後、身体の動きと対応する音声信号とを関連付けるために、音声-視覚融合モデルを適用する。
論文 参考訳(メタデータ) (2020-04-20T17:53:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。