論文の概要: SENSE: Efficient EEG-to-Text via Privacy-Preserving Semantic Retrieval
- arxiv url: http://arxiv.org/abs/2603.17109v1
- Date: Tue, 17 Mar 2026 19:59:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.380545
- Title: SENSE: Efficient EEG-to-Text via Privacy-Preserving Semantic Retrieval
- Title(参考訳): SENSE: プライバシー保護セマンティック検索による効率的なEEG-to-Text
- Authors: Akshaj Murhekar, Christina Liu, Abhijit Mishra, Shounak Roychowdhury, Jacek Gwizdka,
- Abstract要約: 脳活動を自然言語にデコードすることは、補助コミュニケーション、ニューロテクノロジー、人間とコンピュータの相互作用に重要な応用を持つAIにおける大きな課題である。
既存のBrain-Computer Interface (BCI) のアプローチは、Large Language Models (LLM) やエンコーダ-デコーダモデルのメモリ集約的な微調整に依存している。
我々は,非侵襲脳波(EEG)をLLM微調整なしでテキストに変換する軽量でプライバシー保護のフレームワークであるSENSEを紹介する。
- 参考スコア(独自算出の注目度): 6.012652594597545
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Decoding brain activity into natural language is a major challenge in AI with important applications in assistive communication, neurotechnology, and human-computer interaction. Most existing Brain-Computer Interface (BCI) approaches rely on memory-intensive fine-tuning of Large Language Models (LLMs) or encoder-decoder models on raw EEG signals, resulting in expensive training pipelines, limited accessibility, and potential exposure of sensitive neural data. We introduce SENSE (SEmantic Neural Sparse Extraction), a lightweight and privacy-preserving framework that translates non-invasive electroencephalography (EEG) into text without LLM fine-tuning. SENSE decouples decoding into two stages: on-device semantic retrieval and prompt-based language generation. EEG signals are locally mapped to a discrete textual space to extract a non-sensitive Bag-of-Words (BoW), which conditions an off-the-shelf LLM to synthesize fluent text in a zero-shot manner. The EEG-to-keyword module contains only ~6M parameters and runs fully on-device, ensuring raw neural signals remain local while only abstract semantic cues interact with language models. Evaluated on a 128-channel EEG dataset across six subjects, SENSE matches or surpasses the generative quality of fully fine-tuned baselines such as Thought2Text while substantially reducing computational overhead. By localizing neural decoding and sharing only derived textual cues, SENSE provides a scalable and privacy-aware retrieval-augmented architecture for next-generation BCIs.
- Abstract(参考訳): 脳活動を自然言語にデコードすることは、補助コミュニケーション、ニューロテクノロジー、人間とコンピュータの相互作用において重要な応用を持つAIにおける大きな課題である。
既存のBrain-Computer Interface(BCI)アプローチのほとんどは、生のEEG信号に対するLarge Language Models(LLMs)やエンコーダ-デコーダモデルのメモリ集約的な微調整に依存しているため、高価なトレーニングパイプライン、限られたアクセシビリティ、潜在的に機密性のあるニューラルネットワークが露出する可能性がある。
SENSE(セマンティックニューラルスパース抽出)は,非侵襲脳波(EEG)をLLM微調整なしでテキストに変換する軽量でプライバシー保護のフレームワークである。
SENSEはデコードをオンデバイスセマンティック検索とプロンプトベースの言語生成の2つのステージに分離する。
EEG信号は離散テキスト空間に局所的にマッピングされ、非感度なBag-of-Words (BoW) を抽出する。
EEG-to-keywordモジュールは、約6Mパラメータのみを含み、デバイス上で完全に動作し、生のニューラル信号がローカルのままでありながら、抽象的なセマンティックキューのみが言語モデルと相互作用することを保証する。
SENSEは6つの被験者にわたる128チャンネルのEEGデータセットに基づいて評価され、Thought2Textのような完全に微調整されたベースラインの生成品質にマッチするか、上回っている。
ニューラルネットワークのローカライズと、派生したテキストキューのみの共有によって、SENSEは、次世代BCIのためのスケーラブルでプライバシ対応の検索拡張アーキテクチャを提供する。
関連論文リスト
- Learning Interpretable Representations Leads to Semantically Faithful EEG-to-Text Generation [52.51005875755718]
我々は脳波からテキストへの復号に焦点をあて、後部崩壊のレンズを通して幻覚の問題に対処する。
脳波とテキスト間の情報容量のミスマッチを認め、デコードタスクをコア意味のセマンティックな要約として再設計する。
パブリックなZuCoデータセットの実験では、GLIMが一貫して、流動的なEEG基底文を生成することが示されている。
論文 参考訳(メタデータ) (2025-05-21T05:29:55Z) - sEEG-based Encoding for Sentence Retrieval: A Contrastive Learning Approach to Brain-Language Alignment [8.466223794246261]
本稿では,凍結したCLIPモデルの文埋め込み空間に単射ステレオ脳波信号(sEEG)を投影するコントラスト学習フレームワークであるSSENSEを提案する。
本手法は,自然主義映画視聴データセットから,時系列のsEEGと音声の書き起こしについて評価する。
論文 参考訳(メタデータ) (2025-04-20T03:01:42Z) - BrainECHO: Semantic Brain Signal Decoding through Vector-Quantized Spectrogram Reconstruction for Whisper-Enhanced Text Generation [48.20672677492805]
現在のEEG/MEG-to-textデコーディングシステムには3つの重要な制限がある。
BrainECHOは、分離された表現学習を利用する多段階フレームワークである。
BrainECHOは文、セッション、主題に依存しない条件をまたいだ堅牢性を示す。
論文 参考訳(メタデータ) (2024-10-19T04:29:03Z) - A multimodal LLM for the non-invasive decoding of spoken text from brain recordings [0.4187344935012482]
fMRI信号から音声テキストを復号するためのマルチモーダルLLMを提案する。
提案アーキテクチャは, (i) 特定のトランスフォーマーから派生したエンコーダ上に構築され, エンコーダに付加された埋め込み層と, 最先端のアテンション機構が組み込まれている。
fMRIと会話信号が同期的に記録される、人間-ロボット相互作用と人間-ロボット相互作用のセットからなるコーパス上で行われたベンチマーク。
論文 参考訳(メタデータ) (2024-09-29T14:03:39Z) - Enhancing EEG-to-Text Decoding through Transferable Representations from Pre-trained Contrastive EEG-Text Masked Autoencoder [69.7813498468116]
コントラスト型脳波テキストマスケード自動エンコーダ(CET-MAE)を提案する。
また、E2T-PTR(Pretrained Transferable Representationsを用いたEEG-to-Text decoding)と呼ばれるフレームワークを開発し、EEGシーケンスからテキストをデコードする。
論文 参考訳(メタデータ) (2024-02-27T11:45:21Z) - BrainLLM: Generative Language Decoding from Brain Recordings [77.66707255697706]
本稿では,大言語モデルと意味脳デコーダの容量を利用した生成言語BCIを提案する。
提案モデルでは,視覚的・聴覚的言語刺激のセマンティック内容に整合したコヒーレントな言語系列を生成することができる。
本研究は,直接言語生成におけるBCIの活用の可能性と可能性を示すものである。
論文 参考訳(メタデータ) (2023-11-16T13:37:21Z) - Open Vocabulary Electroencephalography-To-Text Decoding and Zero-shot
Sentiment Classification [78.120927891455]
最先端のブレイン・トゥ・テキストシステムは、ニューラルネットワークを使用して脳信号から直接言語を復号することに成功した。
本稿では,自然読解課題における語彙的脳波(EEG)-テキスト列列列復号化とゼロショット文感性分類に問題を拡張する。
脳波-テキストデコーディングで40.1%のBLEU-1スコア、ゼロショット脳波に基づく3次感情分類で55.6%のF1スコアを達成し、教師付きベースラインを著しく上回る結果となった。
論文 参考訳(メタデータ) (2021-12-05T21:57:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。