論文の概要: Learning Interpretable Representations Leads to Semantically Faithful EEG-to-Text Generation
- arxiv url: http://arxiv.org/abs/2505.17099v1
- Date: Wed, 21 May 2025 05:29:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-26 18:08:33.561545
- Title: Learning Interpretable Representations Leads to Semantically Faithful EEG-to-Text Generation
- Title(参考訳): 解釈可能な表現の学習は、意味的に忠実な脳波からテキストへの生成につながる
- Authors: Xiaozhao Liu, Dinggang Shen, Xihui Liu,
- Abstract要約: 我々は脳波からテキストへの復号に焦点をあて、後部崩壊のレンズを通して幻覚の問題に対処する。
脳波とテキスト間の情報容量のミスマッチを認め、デコードタスクをコア意味のセマンティックな要約として再設計する。
パブリックなZuCoデータセットの実験では、GLIMが一貫して、流動的なEEG基底文を生成することが示されている。
- 参考スコア(独自算出の注目度): 52.51005875755718
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Pretrained generative models have opened new frontiers in brain decoding by enabling the synthesis of realistic texts and images from non-invasive brain recordings. However, the reliability of such outputs remains questionable--whether they truly reflect semantic activation in the brain, or are merely hallucinated by the powerful generative models. In this paper, we focus on EEG-to-text decoding and address its hallucination issue through the lens of posterior collapse. Acknowledging the underlying mismatch in information capacity between EEG and text, we reframe the decoding task as semantic summarization of core meanings rather than previously verbatim reconstruction of stimulus texts. To this end, we propose the Generative Language Inspection Model (GLIM), which emphasizes learning informative and interpretable EEG representations to improve semantic grounding under heterogeneous and small-scale data conditions. Experiments on the public ZuCo dataset demonstrate that GLIM consistently generates fluent, EEG-grounded sentences without teacher forcing. Moreover, it supports more robust evaluation beyond text similarity, through EEG-text retrieval and zero-shot semantic classification across sentiment categories, relation types, and corpus topics. Together, our architecture and evaluation protocols lay the foundation for reliable and scalable benchmarking in generative brain decoding.
- Abstract(参考訳): 事前訓練された生成モデルは、非侵襲的な脳記録から現実的なテキストと画像の合成を可能にすることによって、脳復号における新たなフロンティアを開放した。
しかし、そのようなアウトプットの信頼性は、脳のセマンティックアクティベーションを本当に反映しているか、あるいは単に強力な生成モデルによって幻覚されているのかという疑問が残る。
本稿では,脳波からテキストへの復号化に着目し,後部崩壊のレンズによる幻覚問題に対処する。
脳波とテキスト間の情報容量のミスマッチを認め、このデコードタスクを刺激テキストの冗長な再構築ではなく、コア意味のセマンティック要約として再構成する。
そこで本研究では,不均一かつ小規模なデータ条件下でのセマンティックグラウンドニングを改善するために,学習情報および解釈可能なEEG表現を強調するジェネレーティブ言語検査モデルを提案する。
公開ZuCoデータセットの実験では、GLIMは教師の強制を伴わない、流れる脳波の文を一貫して生成している。
さらに、感情カテゴリー、関係型、コーパストピック間のEEGテキスト検索やゼロショットセマンティック分類を通じて、テキスト類似性を超えてより堅牢な評価をサポートする。
アーキテクチャと評価プロトコルは共に、生成的脳復号における信頼性とスケーラブルなベンチマークの基礎を築いた。
関連論文リスト
- sEEG-based Encoding for Sentence Retrieval: A Contrastive Learning Approach to Brain-Language Alignment [8.466223794246261]
本稿では,凍結したCLIPモデルの文埋め込み空間に単射ステレオ脳波信号(sEEG)を投影するコントラスト学習フレームワークであるSSENSEを提案する。
本手法は,自然主義映画視聴データセットから,時系列のsEEGと音声の書き起こしについて評価する。
論文 参考訳(メタデータ) (2025-04-20T03:01:42Z) - Towards Brain Passage Retrieval -- An Investigation of EEG Query Representations [6.084958172018792]
情報検索システムは、ユーザーの内部情報要求を(テキスト)クエリに変換する能力に依存している。
脳信号から明示的なテキストクエリをデコードしようとする現在のアプローチでは、効果が限られている。
本稿では,中間クエリ変換を必要としない新しいフレームワークであるBPR(Brain Passage Retrieval)を提案する。
論文 参考訳(メタデータ) (2024-12-09T17:41:25Z) - SEE: Semantically Aligned EEG-to-Text Translation [5.460650382586978]
神経生理学的信号を言語に復号することは、脳-コンピュータインターフェース(BCI)の応用において非常に興味深い研究である。
現在のEEG-to-Textデコーディングアプローチは、EEGレコードと生テキストの間に大きなドメインギャップがあるため、課題に直面している。
本稿では,脳波からテキストへのデコードを改善するための新しい手法であるセマンティック・アラインドEEG-to-Text Translationを提案する。
論文 参考訳(メタデータ) (2024-09-14T05:37:15Z) - Towards Linguistic Neural Representation Learning and Sentence Retrieval from Electroencephalogram Recordings [27.418738450536047]
脳波信号を文に変換するための2ステップパイプラインを提案する。
まず,自然読解中に記録された脳波データから単語レベルの意味情報を学習できることを確認する。
脳波エンコーダからの予測に基づいて文章を検索するために,学習不要な検索手法を用いる。
論文 参考訳(メタデータ) (2024-08-08T03:40:25Z) - Enhancing Systematic Decompositional Natural Language Inference Using Informal Logic [51.967603572656266]
我々は,分解包含を注釈付けするための一貫した理論的なアプローチを導入する。
我々の新しいデータセットRDTEは、前回の分解エンターメントデータセットよりもかなり高い内部整合性(+9%)を持つことがわかった。
また,RDTE による知識蒸留によるエンテーメント分類器の訓練や,エンテーメントツリー推論エンジンへの導入により,精度と検証精度が向上することが確認された。
論文 参考訳(メタデータ) (2024-02-22T18:55:17Z) - Semantic-aware Contrastive Learning for Electroencephalography-to-Text
Generation with Curriculum Learning [28.76185264077582]
脳波対テキスト生成のためのC-SCL(Curriculum Semantic-aware Contrastive Learning Strategy)を提案する。
C-SCLは、意味的に類似したEEG表現をまとめ、異なる表現を分割する。
提案手法は,新しい最先端技術を実現しつつ,3種類の指標にまたがる安定した改善を示す。
論文 参考訳(メタデータ) (2023-01-23T00:54:48Z) - Open Vocabulary Electroencephalography-To-Text Decoding and Zero-shot
Sentiment Classification [78.120927891455]
最先端のブレイン・トゥ・テキストシステムは、ニューラルネットワークを使用して脳信号から直接言語を復号することに成功した。
本稿では,自然読解課題における語彙的脳波(EEG)-テキスト列列列復号化とゼロショット文感性分類に問題を拡張する。
脳波-テキストデコーディングで40.1%のBLEU-1スコア、ゼロショット脳波に基づく3次感情分類で55.6%のF1スコアを達成し、教師付きベースラインを著しく上回る結果となった。
論文 参考訳(メタデータ) (2021-12-05T21:57:22Z) - Lexically-constrained Text Generation through Commonsense Knowledge
Extraction and Injection [62.071938098215085]
我々は、ある入力概念のセットに対して妥当な文を生成することを目的としているcommongenベンチマークに焦点を当てる。
生成したテキストの意味的正しさを高めるための戦略を提案する。
論文 参考訳(メタデータ) (2020-12-19T23:23:40Z) - A Controllable Model of Grounded Response Generation [122.7121624884747]
現在のエンドツーエンドのニューラルネットワークモデルは、応答生成プロセスにセマンティックコントロールを課す柔軟性を本質的に欠いている。
我々は制御可能な接地応答生成(CGRG)と呼ばれるフレームワークを提案する。
このフレームワークを用いることで、会話のようなRedditデータセットでトレーニングされた、新しいインダクティブアテンション機構を備えたトランスフォーマーベースのモデルが、強力な生成ベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2020-05-01T21:22:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。