論文の概要: Expectation and Acoustic Neural Network Representations Enhance Music Identification from Brain Activity
- arxiv url: http://arxiv.org/abs/2603.03190v2
- Date: Thu, 12 Mar 2026 15:53:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:25.398351
- Title: Expectation and Acoustic Neural Network Representations Enhance Music Identification from Brain Activity
- Title(参考訳): 脳活動による音楽識別の期待と音響ニューラルネットワークによる表現
- Authors: Shogo Noguchi, Taketo Akama, Tai Nakamura, Shun Minamikawa, Natalia Polouliakh,
- Abstract要約: 教師がターゲットとする音響および予測関連ANN表現の識別は,脳波に基づく音楽識別を改善することを示す。
この研究は、予測音楽認知とニューラルデコーディングの進歩に向けられている。
- 参考スコア(独自算出の注目度): 2.9095985849532884
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: During music listening, cortical activity encodes both acoustic and expectation-related information. Prior work has shown that ANN representations resemble cortical representations and can serve as supervisory signals for EEG recognition. Here we show that distinguishing acoustic and expectation-related ANN representations as teacher targets improves EEG-based music identification. Models pretrained to predict either representation outperform non-pretrained baselines, and combining them yields complementary gains that exceed strong seed ensembles formed by varying random initializations. These findings show that teacher representation type shapes downstream performance and that representation learning can be guided by neural encoding. This work points toward advances in predictive music cognition and neural decoding. Our expectation representation, computed directly from raw signals without manual labels, reflects predictive structure beyond onset or pitch, enabling investigation of multilayer predictive encoding across diverse stimuli. Its scalability to large, diverse datasets further suggests potential for developing general-purpose EEG models grounded in cortical encoding principles.
- Abstract(参考訳): 音楽聴取中、皮質活動は音響情報と期待情報の両方を符号化する。
以前の研究は、ANN表現が皮質表現に似ており、脳波認識のための監視信号として機能することを示した。
ここでは,教師がターゲットとする音響および予測関連ANN表現の識別により,脳波に基づく音楽の識別が向上することを示す。
事前訓練されたモデルは、予測された表現が非制約ベースラインより優れており、それらを組み合わせることで、様々なランダムな初期化によって形成される強い種子アンサンブルを超える相補的なゲインが得られる。
これらの結果から,教師の表現型は下流のパフォーマンスを低下させ,表現学習はニューラルエンコーディングによって指導できることが示唆された。
この研究は、予測音楽認知とニューラルデコーディングの進歩に向けられている。
手動ラベルを使わずに生信号から直接計算された予測表現は、開始やピッチを超えて予測構造を反映し、多様な刺激をまたいだ多層予測符号化の探索を可能にする。
大規模で多様なデータセットへのスケーラビリティは、皮質の符号化原理に基づく汎用脳波モデルの開発の可能性をさらに示唆している。
関連論文リスト
- Learning Robust Spatial Representations from Binaural Audio through Feature Distillation [64.36563387033921]
データラベルを必要とせずに音声の頑健な空間表現を学習するために,特徴蒸留に基づく事前学習ステージの利用について検討する。
実験により, 事前学習したモデルでは, 騒音および残響環境における性能が向上していることが示された。
論文 参考訳(メタデータ) (2025-08-28T15:43:15Z) - Predicting Artificial Neural Network Representations to Learn Recognition Model for Music Identification from Brain Recordings [1.7021860383953338]
近年の研究では、人工ニューラルネットワーク(ANN)の表現が皮質表現と顕著に類似していることが示されている。
本研究では、外部聴覚刺激に応答して脳記録の認識モデルを開発するための新しいアプローチを提案する。
脳-コンピュータインターフェース(BCI)の進歩、ニューラルデコード技術、音楽認知の理解を約束します。
論文 参考訳(メタデータ) (2024-12-20T04:37:26Z) - CognitionCapturer: Decoding Visual Stimuli From Human EEG Signal With Multimodal Information [61.1904164368732]
脳波信号の表現にマルチモーダルデータを完全に活用する統合フレームワークであるCognitionCapturerを提案する。
具体的には、CognitionCapturerは、各モダリティに対してモダリティエキスパートを訓練し、EEGモダリティからモダリティ情報を抽出する。
このフレームワークは生成モデルの微調整を一切必要とせず、より多くのモダリティを組み込むように拡張することができる。
論文 参考訳(メタデータ) (2024-12-13T16:27:54Z) - TokenUnify: Scaling Up Autoregressive Pretraining for Neuron Segmentation [65.65530016765615]
本稿では,3つの相補的な学習目標を通じて,大規模依存関係をキャプチャする階層型予測コーディングフレームワークを提案する。
TokenUnifyは、ランダムトークン予測、次のトークン予測、およびすべてのトークン予測を統合して、包括的な表現空間を作成する。
また,120億個の注釈付きボクセルを付加した大規模EMデータセットを導入し,空間連続性を持つ理想的な長周期視覚データを提供する。
論文 参考訳(メタデータ) (2024-05-27T05:45:51Z) - Music Emotion Prediction Using Recurrent Neural Networks [8.867897390286815]
本研究は,聴取者の感情状態に合うように音楽を調整することで,音楽レコメンデーションシステムを強化し,治療介入を支援することを目的とする。
ラッセルの感情クアドラントを用いて、音楽を4つの異なる感情領域に分類し、これらのカテゴリーを正確に予測できるモデルを開発する。
我々のアプローチは、Librosaを使って包括的なオーディオ機能を抽出し、標準RNN、双方向RNN、Long Short-Term Memory(LSTM)ネットワークなど、さまざまなリカレントニューラルネットワークアーキテクチャを適用します。
論文 参考訳(メタデータ) (2024-05-10T18:03:20Z) - Relating Human Perception of Musicality to Prediction in a Predictive
Coding Model [0.8062120534124607]
人間の音楽知覚をモデル化するための予測符号化にインスパイアされたニューラルネットワークの利用について検討する。
このネットワークは階層視覚野における反復的相互作用の計算神経科学理論に基づいて開発された。
このネットワークを用いて階層的な聴覚システムをモデル化し、ランダムなピッチ列の楽しさに関して、人間と同じような選択をするかどうかを検討する。
論文 参考訳(メタデータ) (2022-10-29T12:20:01Z) - Enhancing Affective Representations of Music-Induced EEG through
Multimodal Supervision and latent Domain Adaptation [34.726185927120355]
脳波の重み付けとして音楽信号を用い,その意味的対応を共通の表現空間に投影することを目的としている。
我々は、LSTMに基づくアテンションモデルと、音楽タギングのための事前訓練されたモデルを組み合わせたバイモーダル・フレームワークと、その2つのモードの分布を整列するリバース・ドメイン・ディミネータを併用して、バイモーダル・フレームワークを利用する。
脳波入力クエリに関連音楽サンプルを提供することにより、モダリティのいずれからも、間接的に、教師付き予測を行うことで、感情認識に利用することができる。
論文 参考訳(メタデータ) (2022-02-20T07:32:12Z) - Learning Personal Representations from fMRIby Predicting Neurofeedback
Performance [52.77024349608834]
機能的MRI(fMRI)によって導かれる自己神経変調タスクを行う個人のための個人表現を学習するためのディープニューラルネットワーク手法を提案する。
この表現は、直近のfMRIフレームが与えられた次のfMRIフレームにおける扁桃体活動を予測する自己教師型リカレントニューラルネットワークによって学習され、学習された個々の表現に条件付けされる。
論文 参考訳(メタデータ) (2021-12-06T10:16:54Z) - EEGminer: Discovering Interpretable Features of Brain Activity with
Learnable Filters [72.19032452642728]
本稿では,学習可能なフィルタと事前決定された特徴抽出モジュールからなる新しい識別可能なEEGデコーディングパイプラインを提案する。
我々は,SEEDデータセットおよび前例のない大きさの新たな脳波データセット上で,脳波信号からの感情認識に向けたモデルの有用性を実証する。
発見された特徴は、以前の神経科学の研究と一致し、音楽聴取中の左右の時間領域間の機能的接続プロファイルの顕著な相違など、新たな洞察を提供する。
論文 参考訳(メタデータ) (2021-10-19T14:22:04Z) - Noisy Agents: Self-supervised Exploration by Predicting Auditory Events [127.82594819117753]
本稿では, エージェントが行動の因果的影響を理解することを奨励する, 強化学習(Reinforcement Learning, RL)の本質的なモチベーションを提案する。
ニューラルネットワークを用いて聴覚事象を予測し、予測誤差を本質的な報奨として利用し、RL探索を誘導する。
Atariゲームの実験結果から、我々の新しい本質的な動機は、最先端のベースラインを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2020-07-27T17:59:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。