論文の概要: Wearable Music2Emotion : Assessing Emotions Induced by AI-Generated Music through Portable EEG-fNIRS Fusion
- arxiv url: http://arxiv.org/abs/2508.04723v1
- Date: Tue, 05 Aug 2025 12:25:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-08 18:59:39.574384
- Title: Wearable Music2Emotion : Assessing Emotions Induced by AI-Generated Music through Portable EEG-fNIRS Fusion
- Title(参考訳): ウェアラブル音楽2感情 : ポータブルEEG-fNIRS融合によるAI生成音楽による感情の評価
- Authors: Sha Zhao, Song Yi, Yangxuan Zhou, Jiadong Pan, Jiquan Wang, Jie Xia, Shijian Li, Shurong Dong, Gang Pan,
- Abstract要約: MEEtBrainは、感情分析のためのポータブルでマルチモーダルなフレームワークである
それは、AIが生成した音楽刺激とEEG-fNIRSの買収をワイヤレスヘッドバンドを介して統合する。
フレームワークの有効性を検証するため、20人の参加者による14時間のデータセットが収集された。
- 参考スコア(独自算出の注目度): 11.122272456519227
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Emotions critically influence mental health, driving interest in music-based affective computing via neurophysiological signals with Brain-computer Interface techniques. While prior studies leverage music's accessibility for emotion induction, three key limitations persist: \textbf{(1) Stimulus Constraints}: Music stimuli are confined to small corpora due to copyright and curation costs, with selection biases from heuristic emotion-music mappings that ignore individual affective profiles. \textbf{(2) Modality Specificity}: Overreliance on unimodal neural data (e.g., EEG) ignores complementary insights from cross-modal signal fusion.\textbf{ (3) Portability Limitation}: Cumbersome setups (e.g., 64+ channel gel-based EEG caps) hinder real-world applicability due to procedural complexity and portability barriers. To address these limitations, we propose MEEtBrain, a portable and multimodal framework for emotion analysis (valence/arousal), integrating AI-generated music stimuli with synchronized EEG-fNIRS acquisition via a wireless headband. By MEEtBrain, the music stimuli can be automatically generated by AI on a large scale, eliminating subjective selection biases while ensuring music diversity. We use our developed portable device that is designed in a lightweight headband-style and uses dry electrodes, to simultaneously collect EEG and fNIRS recordings. A 14-hour dataset from 20 participants was collected in the first recruitment to validate the framework's efficacy, with AI-generated music eliciting target emotions (valence/arousal). We are actively expanding our multimodal dataset (44 participants in the latest dataset) and make it publicly available to promote further research and practical applications. \textbf{The dataset is available at https://zju-bmi-lab.github.io/ZBra.
- Abstract(参考訳): 感情はメンタルヘルスに重大な影響を与え、脳-コンピュータインタフェース技術による神経生理学的信号による音楽ベースの感情コンピューティングへの関心を喚起する。
音楽の刺激は、個人の感情的プロファイルを無視したヒューリスティックな感情-音楽的マッピングから選択されたバイアスによって、著作権とキュレーションのコストによって小さなコーパスに制限される。
\textbf{(2) Modality Specificity}: 単調波ニューラルデータ(例えばEEG)への過度依存は、相互変調信号融合からの補完的な洞察を無視している。
\textbf{ (3) Portability Limitation}: 面倒なセットアップ(例: 64+チャネル gel-based EEG caps)は、手続き的な複雑さとポータビリティ障壁によって現実の応用を妨げます。
これらの制約に対処するため,感情分析のためのポータブルかつマルチモーダルなフレームワークであるMEEtBrainを提案する。
MEEtBrainにより、音楽刺激はAIによって大規模に自動生成され、音楽の多様性を確保しつつ、主観的選択バイアスを排除できる。
我々は,軽量なヘッドバンド方式で設計し,ドライ電極を用いて脳波とfNIRS記録を同時に収集する携帯端末を開発した。
20人の参加者による14時間のデータセットを最初の採用で収集し、そのフレームワークの有効性を検証し、AIが生成した音楽が対象の感情を抽出した(価/覚醒)。
マルチモーダルデータセット(最新のデータセットに44人の参加者)を積極的に拡張し、さらなる研究と実践的な応用を促進するために公開しています。
データセットはhttps://zju-bmi-lab.github.io/ZBraで公開されている。
関連論文リスト
- CAST-Phys: Contactless Affective States Through Physiological signals Database [74.28082880875368]
感情的なマルチモーダルデータセットの欠如は、正確な感情認識システムを開発する上で、依然として大きなボトルネックとなっている。
遠隔の生理的感情認識が可能な新しい高品質なデータセットであるCAST-Physを提示する。
本分析では,表情だけでは十分な感情情報が得られない現実的なシナリオにおいて,生理的信号が重要な役割を担っていることを強調した。
論文 参考訳(メタデータ) (2025-07-08T15:20:24Z) - Neural Brain: A Neuroscience-inspired Framework for Embodied Agents [58.58177409853298]
大規模な言語モデルのような現在のAIシステムは、いまだに解体され続けており、物理的に世界と関わりが持てない。
この課題の核心は、人間のような適応性を持つエンボディエージェントを駆動するために設計された中枢知能システムであるNeural Brain(ニューラル・ブレイン)の概念である。
本稿では,2つの基本的な課題に対処する,エンボディエージェントのニューラルブレインの統一的枠組みを提案する。
論文 参考訳(メタデータ) (2025-05-12T15:05:34Z) - Disentangle Identity, Cooperate Emotion: Correlation-Aware Emotional Talking Portrait Generation [63.94836524433559]
DICE-Talkは、感情と同一性を切り離し、類似した特徴を持つ感情を協調するフレームワークである。
我々は、モーダル・アテンションを通して、音声と視覚の感情の手がかりを共同でモデル化するアンタングル型感情埋め込み装置を開発した。
次に,学習可能な感情バンクを用いた相関強化感情調和モジュールを提案する。
第3に、拡散過程における感情の一貫性を強制する感情識別目標を設計する。
論文 参考訳(メタデータ) (2025-04-25T05:28:21Z) - MEEG and AT-DGNN: Improving EEG Emotion Recognition with Music Introducing and Graph-based Learning [3.840859750115109]
音楽誘発脳波(EEG)記録のマルチモーダルコレクションであるMEEGデータセットについて述べる。
本稿では,脳波に基づく感情認識のための新しいフレームワークである動的グラフニューラルネットワーク(AT-DGNN)を用いた注意に基づく時間学習について紹介する。
論文 参考訳(メタデータ) (2024-07-08T01:58:48Z) - R&B -- Rhythm and Brain: Cross-subject Decoding of Music from Human Brain Activity [0.12289361708127873]
音楽は、文化全体にわたる人間の経験に大きな影響を及ぼす普遍的な現象である。
本研究では,音楽の知覚における機能的MRI(FMRI)を用いた人間の脳活動から,音楽の復号化が可能であるかを検討した。
論文 参考訳(メタデータ) (2024-06-21T17:11:45Z) - Emotion-aware Personalized Music Recommendation with a Heterogeneity-aware Deep Bayesian Network [8.844728473984766]
我々はこれらの仮定をモデル化するヘテロジニティ対応ディープベイズネットワーク(HDBN)を提案する。
HDBNは、4つのコンポーネントで音楽を選択するというユーザの決定過程を模倣している。
提案手法は,HR,Precision,NDCG,MRRの指標に対するベースラインアプローチよりも有意に優れている。
論文 参考訳(メタデータ) (2024-06-20T08:12:11Z) - Music Emotion Prediction Using Recurrent Neural Networks [8.867897390286815]
本研究は,聴取者の感情状態に合うように音楽を調整することで,音楽レコメンデーションシステムを強化し,治療介入を支援することを目的とする。
ラッセルの感情クアドラントを用いて、音楽を4つの異なる感情領域に分類し、これらのカテゴリーを正確に予測できるモデルを開発する。
我々のアプローチは、Librosaを使って包括的なオーディオ機能を抽出し、標準RNN、双方向RNN、Long Short-Term Memory(LSTM)ネットワークなど、さまざまなリカレントニューラルネットワークアーキテクチャを適用します。
論文 参考訳(メタデータ) (2024-05-10T18:03:20Z) - fMRI from EEG is only Deep Learning away: the use of interpretable DL to
unravel EEG-fMRI relationships [68.8204255655161]
多チャンネル脳波データからいくつかの皮質下領域の活性を回復するための解釈可能な領域基底解を提案する。
我々は,皮質下核の血行動態信号の頭皮脳波予測の空間的・時間的パターンを復元する。
論文 参考訳(メタデータ) (2022-10-23T15:11:37Z) - Enhancing Affective Representations of Music-Induced EEG through
Multimodal Supervision and latent Domain Adaptation [34.726185927120355]
脳波の重み付けとして音楽信号を用い,その意味的対応を共通の表現空間に投影することを目的としている。
我々は、LSTMに基づくアテンションモデルと、音楽タギングのための事前訓練されたモデルを組み合わせたバイモーダル・フレームワークと、その2つのモードの分布を整列するリバース・ドメイン・ディミネータを併用して、バイモーダル・フレームワークを利用する。
脳波入力クエリに関連音楽サンプルを提供することにより、モダリティのいずれからも、間接的に、教師付き予測を行うことで、感情認識に利用することができる。
論文 参考訳(メタデータ) (2022-02-20T07:32:12Z) - EEGminer: Discovering Interpretable Features of Brain Activity with
Learnable Filters [72.19032452642728]
本稿では,学習可能なフィルタと事前決定された特徴抽出モジュールからなる新しい識別可能なEEGデコーディングパイプラインを提案する。
我々は,SEEDデータセットおよび前例のない大きさの新たな脳波データセット上で,脳波信号からの感情認識に向けたモデルの有用性を実証する。
発見された特徴は、以前の神経科学の研究と一致し、音楽聴取中の左右の時間領域間の機能的接続プロファイルの顕著な相違など、新たな洞察を提供する。
論文 参考訳(メタデータ) (2021-10-19T14:22:04Z) - A Efficient Multimodal Framework for Large Scale Emotion Recognition by
Fusing Music and Electrodermal Activity Signals [8.338268870275877]
1次元残留時間・チャネルアテンションネットワーク(RTCAN-1D)のエンドツーエンドマルチモーダルフレームワークを提案する。
EDAの特徴については、新しい凸最適化に基づくEDA(CvxEDA)法を用いて、EDA信号をハッシュ信号とトニック信号に分解する。
音楽の特徴について,オープンソースツールキットopenSMILEを用いて音楽信号の処理を行い,外部特徴ベクトルを得る。
論文 参考訳(メタデータ) (2020-08-22T03:13:20Z) - An End-to-End Visual-Audio Attention Network for Emotion Recognition in
User-Generated Videos [64.91614454412257]
畳み込みニューラルネットワーク(CNN)に基づくエンドツーエンドの映像感情認識を提案する。
具体的には,空間的,チャネル的,時間的注意を視覚的に3D CNNに統合し,時間的注意をオーディオ2D CNNに組み込む新しいアーキテクチャである,深層ビジュアル・オーディオ・アテンション・ネットワーク(VAANet)を開発した。
論文 参考訳(メタデータ) (2020-02-12T15:33:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。