論文の概要: MEGnifying Emotion: Sentiment Analysis from Annotated Brain Data
- arxiv url: http://arxiv.org/abs/2601.18792v1
- Date: Mon, 26 Jan 2026 18:55:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:09.026892
- Title: MEGnifying Emotion: Sentiment Analysis from Annotated Brain Data
- Title(参考訳): MEGnifying Emotion: 注釈付き脳データからの知覚分析
- Authors: Brian Liu, Oiwi Parker Jones,
- Abstract要約: 我々は、非侵襲的な脳記録を注釈付けするために、事前訓練されたテキスト・トゥ・センティメント・モデルの使用について検討する。
我々は、感情ラベルと脳の記録を一致させるために、テキストと音声の強制アライメントを用いる。
実験の結果,脳と感覚のバランス精度はベースラインに比べて向上した。
- 参考スコア(独自算出の注目度): 4.3161681729056935
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Decoding emotion from brain activity could unlock a deeper understanding of the human experience. While a number of existing datasets align brain data with speech and with speech transcripts, no datasets have annotated brain data with sentiment. To bridge this gap, we explore the use of pre-trained Text-to-Sentiment models to annotate non invasive brain recordings, acquired using magnetoencephalography (MEG), while participants listened to audiobooks. Having annotated the text, we employ force-alignment of the text and audio to align our sentiment labels with the brain recordings. It is straightforward then to train Brainto-Sentiment models on these data. Experimental results show an improvement in balanced accuracy for Brain-to-Sentiment compared to baseline, supporting the proposed approach as a proof-of-concept for leveraging existing MEG datasets and learning to decode sentiment directly from the brain.
- Abstract(参考訳): 脳の活動から感情を解読することで、人間の体験をより深く理解できるようになる。
既存の多くのデータセットは、脳データを音声と音声の書き起こしと整合させるが、脳に感情を付加したアノテートされたデータセットは存在しない。
このギャップを埋めるために、参加者がオーディオブックを聴きながら、脳磁図(MEG)を用いて取得した非侵襲的な脳記録に、事前学習したテキスト・トゥ・センチメントモデルを用いて注釈付けを行った。
テキストに注釈を付け、テキストと音声を強制アライメントして、感情ラベルを脳の録音と整合させる。
これらのデータでBrainto-Sentimentモデルをトレーニングするのは簡単です。
実験の結果,脳と感覚のバランスの取れた精度は,ベースラインと比較して向上し,既存のMEGデータセットを活用し,感情を脳から直接復号化するための概念実証として,提案手法が支持された。
関連論文リスト
- MindAligner: Explicit Brain Functional Alignment for Cross-Subject Visual Decoding from Limited fMRI Data [64.92867794764247]
MindAlignerは、限られたfMRIデータからのクロスオブジェクト脳デコーディングのためのフレームワークである。
脳伝達マトリックス(BTM)は、任意の新しい被験者の脳信号を既知の被験者の1人に投射する。
脳機能アライメントモジュールは、異なる視覚刺激下で軟質なクロスオブジェクト脳アライメントを実行するために提案されている。
論文 参考訳(メタデータ) (2025-02-07T16:01:59Z) - Towards Unified Neural Decoding of Perceived, Spoken and Imagined Speech from EEG Signals [1.33134751838052]
本研究では,非侵襲的ニューラルネットワーク復号法におけるディープラーニングモデルの有効性について検討した。
それは、知覚、過度、ささやき、想像されたスピーチなど、異なる音声パラダイムの区別に焦点を当てた。
論文 参考訳(メタデータ) (2024-11-14T07:20:08Z) - BrainECHO: Semantic Brain Signal Decoding through Vector-Quantized Spectrogram Reconstruction for Whisper-Enhanced Text Generation [48.20672677492805]
現在のEEG/MEG-to-textデコーディングシステムには3つの重要な制限がある。
BrainECHOは、分離された表現学習を利用する多段階フレームワークである。
BrainECHOは文、セッション、主題に依存しない条件をまたいだ堅牢性を示す。
論文 参考訳(メタデータ) (2024-10-19T04:29:03Z) - MindSemantix: Deciphering Brain Visual Experiences with a Brain-Language Model [45.18716166499859]
fMRIで捉えた脳の活動を通して人間の視覚体験を解読することは、魅力的で最先端の課題である。
我々は、LLMが視覚的に誘発される脳活動のセマンティックな内容を理解することができる新しいマルチモーダルフレームワークであるMindSemantixを紹介した。
MindSemantixは、脳の活動から派生した視覚情報と意味情報に深く根ざした高品質なキャプションを生成する。
論文 参考訳(メタデータ) (2024-05-29T06:55:03Z) - MapGuide: A Simple yet Effective Method to Reconstruct Continuous Language from Brain Activities [28.498085040417813]
そこで本研究では,脳活動からマッピングしたテキスト埋め込みとの比較により,テキスト再構成を誘導する手法を提案する。
その結果, BLEUとMETEORでは平均77%, 54%の改善が見られた。
このような洞察は、将来の作業のために脳の活動から言語を再構築する作業を単純化することができる。
論文 参考訳(メタデータ) (2024-03-26T09:18:59Z) - Decoding speech perception from non-invasive brain recordings [48.46819575538446]
非侵襲的な記録から知覚音声の自己教師付き表現をデコードするために、コントラスト学習で訓練されたモデルを導入する。
我々のモデルでは、3秒のMEG信号から、1,000以上の異なる可能性から最大41%の精度で対応する音声セグメントを識別できる。
論文 参考訳(メタデータ) (2022-08-25T10:01:43Z) - Toward a realistic model of speech processing in the brain with
self-supervised learning [67.7130239674153]
生波形で訓練された自己教師型アルゴリズムは有望な候補である。
We show that Wav2Vec 2.0 learns brain-like representations with little as 600 hours of unlabelled speech。
論文 参考訳(メタデータ) (2022-06-03T17:01:46Z) - Open Vocabulary Electroencephalography-To-Text Decoding and Zero-shot
Sentiment Classification [78.120927891455]
最先端のブレイン・トゥ・テキストシステムは、ニューラルネットワークを使用して脳信号から直接言語を復号することに成功した。
本稿では,自然読解課題における語彙的脳波(EEG)-テキスト列列列復号化とゼロショット文感性分類に問題を拡張する。
脳波-テキストデコーディングで40.1%のBLEU-1スコア、ゼロショット脳波に基づく3次感情分類で55.6%のF1スコアを達成し、教師付きベースラインを著しく上回る結果となった。
論文 参考訳(メタデータ) (2021-12-05T21:57:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。