論文の概要: Decoding Selective Auditory Attention to Musical Elements in Ecologically Valid Music Listening
- arxiv url: http://arxiv.org/abs/2512.05528v1
- Date: Fri, 05 Dec 2025 08:39:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-13 22:40:56.962197
- Title: Decoding Selective Auditory Attention to Musical Elements in Ecologically Valid Music Listening
- Title(参考訳): 生態学的に妥当な音楽聴取における音楽要素に対する選択的聴覚意図の復調
- Authors: Taketo Akama, Zhuohao Zhang, Tsukasa Nagashima, Takagi Yutaka, Shun Minamikawa, Natalia Polouliakh,
- Abstract要約: 本研究は,4つの電極しか持たない,自然主義的でスタジオ制作の楽曲と軽量なコンシューマグレードの脳波デバイスを用いて,音楽要素に対する選択的注意をデコードする最初の試みである。
コントリビューションは, (i) 実際のスタジオ制作曲における音楽の注意をデコードすること, (ii) 、4チャンネルの消費者脳波による実現可能性を示すこと, (iii) 音楽の注意をデコードするための洞察を提供すること, (iv) 先行作業よりも優れたモデル能力を示すこと,の4つである。
- 参考スコア(独自算出の注目度): 2.9306210138702142
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Art has long played a profound role in shaping human emotion, cognition, and behavior. While visual arts such as painting and architecture have been studied through eye tracking, revealing distinct gaze patterns between experts and novices, analogous methods for auditory art forms remain underdeveloped. Music, despite being a pervasive component of modern life and culture, still lacks objective tools to quantify listeners' attention and perceptual focus during natural listening experiences. To our knowledge, this is the first attempt to decode selective attention to musical elements using naturalistic, studio-produced songs and a lightweight consumer-grade EEG device with only four electrodes. By analyzing neural responses during real world like music listening, we test whether decoding is feasible under conditions that minimize participant burden and preserve the authenticity of the musical experience. Our contributions are fourfold: (i) decoding music attention in real studio-produced songs, (ii) demonstrating feasibility with a four-channel consumer EEG, (iii) providing insights for music attention decoding, and (iv) demonstrating improved model ability over prior work. Our findings suggest that musical attention can be decoded not only for novel songs but also across new subjects, showing performance improvements compared to existing approaches under our tested conditions. These findings show that consumer-grade devices can reliably capture signals, and that neural decoding in music could be feasible in real-world settings. This paves the way for applications in education, personalized music technologies, and therapeutic interventions.
- Abstract(参考訳): 芸術は長い間、人間の感情、認知、行動を形成する上で重要な役割を担ってきた。
絵画や建築などの視覚芸術は、視線追跡によって研究され、専門家と初心者の間で異なる視線パターンが明らかにされているが、聴覚芸術形態の類似手法はいまだに未発達である。
音楽は現代生活や文化の広汎な要素であるにもかかわらず、リスナーの注意を定量化するための客観的なツールや、自然なリスニング体験における知覚的焦点を欠いている。
我々の知る限り、これは自然主義的でスタジオ制作の曲と4つの電極しか持たない軽量の消費者階級の脳波デバイスを使って、音楽要素への選択的注意をデコードする最初の試みである。
音楽聴取のような実世界での神経応答を解析することにより、負担を最小化し、音楽体験の真正性を維持する条件下で復号が実現可能かどうかを検証する。
私たちの貢献は4倍です。
(i)実際のスタジオ制作曲における音楽の注意を復号すること。
二 四チャンネル消費者脳波の実現可能性を示すこと。
(三)音楽注意復調のための洞察の提供、及び
(4)先行作業よりも優れたモデル能力を示すこと。
本研究は,新曲だけでなく,新たな主題にも音楽の注意をデコードできることを示唆する。
これらの結果は、消費者グレードのデバイスが確実に信号をキャプチャでき、音楽のニューラルデコーディングが現実世界の設定で実現可能であることを示している。
これは教育、パーソナライズされた音楽技術、治療介入における応用の道を開くものである。
関連論文リスト
- Music Flamingo: Scaling Music Understanding in Audio Language Models [98.94537017112704]
Music Flamingoは、基礎的なオーディオモデルにおける音楽理解を促進するために設計された、新しい大きなオーディオ言語モデルである。
MF-Skillsはマルチステージパイプラインを通じてラベル付けされたデータセットで、調和、構造、音色、歌詞、文化的な文脈をカバーする豊富なキャプションと質問応答ペアを生成する。
MF-Thinkは音楽理論に基づく新しいチェーン・オブ・シンク・データセットで、続いてGRPOベースの強化学習とカスタム報酬を取り入れた。
論文 参考訳(メタデータ) (2025-11-13T13:21:09Z) - From Sound to Sight: Towards AI-authored Music Videos [6.8291397456847625]
ユーザが指定した、ボーカルまたは楽器の曲から、音楽ビデオを自動的に生成するための2つの新しいパイプラインを提案する。
音楽ビデオ制作者のマニュアルにインスパイアされた我々は、潜在機能に基づく技術がいかに音声を分析できるかを実験した。
次に、生成モデルを用いて、対応するビデオクリップを生成する。
論文 参考訳(メタデータ) (2025-08-20T13:54:53Z) - A Survey of Foundation Models for Music Understanding [60.83532699497597]
この研究は、AI技術と音楽理解の交差に関する初期のレビューの1つである。
音楽理解能力に関して,近年の大規模音楽基盤モデルについて検討,分析,検証を行った。
論文 参考訳(メタデータ) (2024-09-15T03:34:14Z) - Bridging Paintings and Music -- Exploring Emotion based Music Generation through Paintings [10.302353984541497]
本研究では,視覚芸術で表現される感情に共鳴する音楽を生成するモデルを開発した。
コーディネートアートと音楽データの不足に対処するため、私たちはEmotion Painting Musicデータセットをキュレートした。
我々の2段階のフレームワークは、イメージを感情的内容のテキスト記述に変換し、これらの記述を音楽に変換することで、最小限のデータによる効率的な学習を容易にする。
論文 参考訳(メタデータ) (2024-09-12T08:19:25Z) - MeLFusion: Synthesizing Music from Image and Language Cues using Diffusion Models [57.47799823804519]
私たちは、ミュージシャンが映画の脚本だけでなく、視覚化を通して音楽を作る方法にインスピレーションを受けています。
本稿では,テキスト記述と対応する画像からの手がかりを効果的に利用して音楽を合成するモデルであるMeLFusionを提案する。
音楽合成パイプラインに視覚情報を加えることで、生成した音楽の質が大幅に向上することを示す。
論文 参考訳(メタデータ) (2024-06-07T06:38:59Z) - Binaural SoundNet: Predicting Semantics, Depth and Motion with Binaural
Sounds [118.54908665440826]
人間は視覚的および/または聴覚的手がかりを用いて、オブジェクトを頑健に認識し、ローカライズすることができる。
この研究は、純粋に音に基づくシーン理解のためのアプローチを開発する。
視覚的および音声的手がかりの共存は、監督伝達に活用される。
論文 参考訳(メタデータ) (2021-09-06T22:24:00Z) - Musical Prosody-Driven Emotion Classification: Interpreting Vocalists
Portrayal of Emotions Through Machine Learning [0.0]
音楽の韻律の役割は、いくつかの研究が韻律と感情の強い結びつきを示しているにもかかわらず、まだ解明されていない。
本研究では,従来の機械学習アルゴリズムの入力を音楽韻律の特徴に限定する。
我々は,ボーカリストの個人データ収集手法と,アーティスト自身による個人的根拠的真理ラベル付け手法を利用する。
論文 参考訳(メタデータ) (2021-06-04T15:40:19Z) - Music Harmony Generation, through Deep Learning and Using a
Multi-Objective Evolutionary Algorithm [0.0]
本稿では,ポリフォニック音楽生成のための遺伝的多目的進化最適化アルゴリズムを提案する。
ゴールの1つは音楽の規則と規則であり、他の2つのゴール、例えば音楽の専門家や普通のリスナーのスコアとともに、最も最適な反応を得るために進化のサイクルに適合する。
その結果,提案手法は,聞き手を引き寄せながら文法に従う調和音とともに,所望のスタイルや長さの難易度と快適さを生み出すことができることがわかった。
論文 参考訳(メタデータ) (2021-02-16T05:05:54Z) - Music Gesture for Visual Sound Separation [121.36275456396075]
ミュージック・ジェスチャ(Music Gesture)は、音楽演奏時の演奏者の身体と指の動きを明示的にモデル化するキーポイントに基づく構造化表現である。
まず、コンテキスト対応グラフネットワークを用いて、視覚的コンテキストと身体力学を統合し、その後、身体の動きと対応する音声信号とを関連付けるために、音声-視覚融合モデルを適用する。
論文 参考訳(メタデータ) (2020-04-20T17:53:46Z) - Multi-Modal Music Information Retrieval: Augmenting Audio-Analysis with
Visual Computing for Improved Music Video Analysis [91.3755431537592]
この論文は、音声分析とコンピュータビジョンを組み合わせて、マルチモーダルの観点から音楽情報検索(MIR)タスクにアプローチする。
本研究の主な仮説は、ジャンルやテーマなど特定の表現的カテゴリーを視覚的内容のみに基づいて認識できるという観察に基づいている。
実験は、3つのMIRタスクに対して行われ、アーティスト識別、音楽ジェネア分類、クロスジェネア分類を行う。
論文 参考訳(メタデータ) (2020-02-01T17:57:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。