論文の概要: Auditory Brain Passage Retrieval: Cross-Sensory EEG Training for Neural Information Retrieval
- arxiv url: http://arxiv.org/abs/2601.14001v1
- Date: Tue, 20 Jan 2026 14:22:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.34808
- Title: Auditory Brain Passage Retrieval: Cross-Sensory EEG Training for Neural Information Retrieval
- Title(参考訳): 聴覚脳経路検索:神経情報検索のためのクロスセンシング脳波トレーニング
- Authors: Niall McGuire, Yashar Moshfeghi,
- Abstract要約: Brain Passage Retrieval (BPR)は、中間テキスト翻訳なしで脳波信号を通過表現にマッピングする。
聴覚脳波は音声インタフェースと視覚障害者の効果的な検索を可能にするか?
本研究は,BPRにおける聴覚脳波を初めて体系的に調査し,クロスセンセーショナルトレーニングの利点を評価する。
- 参考スコア(独自算出の注目度): 14.174192604480595
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Query formulation from internal information needs remains fundamentally challenging across all Information Retrieval paradigms due to cognitive complexity and physical impairments. Brain Passage Retrieval (BPR) addresses this by directly mapping EEG signals to passage representations without intermediate text translation. However, existing BPR research exclusively uses visual stimuli, leaving critical questions unanswered: Can auditory EEG enable effective retrieval for voice-based interfaces and visually impaired users? Can training on combined EEG datasets from different sensory modalities improve performance despite severe data scarcity? We present the first systematic investigation of auditory EEG for BPR and evaluate cross-sensory training benefits. Using dual encoder architectures with four pooling strategies (CLS, mean, max, multi-vector), we conduct controlled experiments comparing auditory-only, visual-only, and combined training on the Alice (auditory) and Nieuwland (visual) datasets. Results demonstrate that auditory EEG consistently outperforms visual EEG, and cross-sensory training with CLS pooling achieves substantial improvements over individual training: 31% in MRR (0.474), 43% in Hit@1 (0.314), and 28% in Hit@10 (0.858). Critically, combined auditory EEG models surpass BM25 text baselines (MRR: 0.474 vs 0.428), establishing neural queries as competitive with traditional retrieval whilst enabling accessible interfaces. These findings validate auditory neural interfaces for IR tasks and demonstrate that cross-sensory training addresses data scarcity whilst outperforming single-modality approaches Code: https://github.com/NiallMcguire/Audio_BPR
- Abstract(参考訳): 内部情報要求からのクエリの定式化は、認知的複雑性と身体的障害のため、すべての情報検索パラダイムにおいて根本的な課題である。
Brain Passage Retrieval (BPR)は、中間テキスト翻訳なしでEEG信号を通過表現に直接マッピングすることでこの問題に対処する。
聴覚脳波は、音声ベースのインターフェイスや視覚障害者の効果的な検索を可能にしますか?
重度のデータ不足にもかかわらず、異なる感覚モダリティから組み合わせた脳波データセットのトレーニングは、パフォーマンスを向上させることができるか?
本研究は,BPRにおける聴覚脳波を初めて体系的に調査し,クロスセンセーショナルトレーニングの利点を評価する。
4つのプール戦略(CLS、平均、最大、マルチベクトル)を持つデュアルエンコーダアーキテクチャを用いて、聴覚のみ、視覚のみ、およびAlice(聴覚)とNieuwland(視覚)データセットの併用トレーニングを比較する制御実験を行った。
その結果、聴覚脳波は視覚脳波より一貫して優れており、CRSプーリングを用いたクロスセンサートレーニングは、MRR(0.474)で31%、Hit@1(0.314)で43%、Hit@10(0.858)で28%という、個々のトレーニングよりも大幅に改善されている。
重要な点として、複合聴覚脳波モデルはBM25テキストベースライン(MRR: 0.474 vs 0.428)を超え、アクセス可能なインターフェースを有効にしながら従来の検索と競合するニューラルネットワークを確立する。
これらの結果は、IRタスクのための聴覚神経インタフェースを検証し、単一モダリティアプローチよりも優れている一方、クロスセンサートレーニングはデータの不足に対処することを示した。
関連論文リスト
- EEG Emotion Recognition Through Deep Learning [0.0]
テスト精度は91%に達し、SVM、DNN、ロジスティック回帰といった従来のモデルを上回った。
このモデルでは、62の5電極のみを利用することで、EEG装置の要求を低減できる。
この進歩は、メディアコンテンツ消費によって引き起こされる気分変化の今後の探索の土台となる。
論文 参考訳(メタデータ) (2025-11-19T22:14:05Z) - Generating Natural-Language Surgical Feedback: From Structured Representation to Domain-Grounded Evaluation [66.7752700084159]
外科的トレーナーからの高品質なフィードバックは,訓練者のパフォーマンス向上と長期的スキル獲得に不可欠である。
本稿では,実際の訓練者-訓練者間の文書から外科的行動オントロジーを学習する構造対応パイプラインを提案する。
論文 参考訳(メタデータ) (2025-11-19T06:19:34Z) - CAT-Net: A Cross-Attention Tone Network for Cross-Subject EEG-EMG Fusion Tone Decoding [0.8714814768600078]
本稿では,新たなクロスオブジェクトマルチモーダルBCIデコーディングフレームワークを提案する。
脳波とEMG信号を融合させ、4つのマンダリン音を可聴音と無声音の両方で分類する。
脳波-EMGチャネルを最小化したトーンレベルのデコーディングは,被験者間で実現可能であり,潜在的に一般化可能であることが示唆された。
論文 参考訳(メタデータ) (2025-11-14T03:50:54Z) - WaveMind: Towards a Conversational EEG Foundation Model Aligned to Textual and Visual Modalities [55.00677513249723]
脳波信号は認知過程と固有の神経状態の両方を同時に符号化する。
我々は、EEG信号とその対応するモダリティを統一意味空間にマッピングし、一般化された解釈を実現する。
結果として得られたモデルは、柔軟でオープンな会話をサポートしながら、堅牢な分類精度を示す。
論文 参考訳(メタデータ) (2025-09-26T06:21:51Z) - Towards Brain Passage Retrieval -- An Investigation of EEG Query Representations [6.084958172018792]
情報検索システムは、ユーザーの内部情報要求を(テキスト)クエリに変換する能力に依存している。
脳信号から明示的なテキストクエリをデコードしようとする現在のアプローチでは、効果が限られている。
本稿では,中間クエリ変換を必要としない新しいフレームワークであるBPR(Brain Passage Retrieval)を提案する。
論文 参考訳(メタデータ) (2024-12-09T17:41:25Z) - Single-word Auditory Attention Decoding Using Deep Learning Model [9.698931956476692]
聴覚刺激とそれに対応する脳反応を比較して聴覚注意を識別することは、聴覚注意復号法(AAD)として知られている。
本稿では,この課題に対処するため,EEGNetに基づくディープラーニングアプローチを提案する。
論文 参考訳(メタデータ) (2024-10-15T21:57:19Z) - Decoding speech perception from non-invasive brain recordings [48.46819575538446]
非侵襲的な記録から知覚音声の自己教師付き表現をデコードするために、コントラスト学習で訓練されたモデルを導入する。
我々のモデルでは、3秒のMEG信号から、1,000以上の異なる可能性から最大41%の精度で対応する音声セグメントを識別できる。
論文 参考訳(メタデータ) (2022-08-25T10:01:43Z) - A Novel Transferability Attention Neural Network Model for EEG Emotion
Recognition [51.203579838210885]
脳波感情認識のための伝達型注目ニューラルネットワーク(TANN)を提案する。
TANNは、伝達可能な脳波領域のデータとサンプルを適応的に強調することにより、感情的な識別情報を学習する。
これは、複数の脳領域レベル判別器と1つのサンプルレベル判別器の出力を測定することで実現できる。
論文 参考訳(メタデータ) (2020-09-21T02:42:30Z) - Uncovering the structure of clinical EEG signals with self-supervised
learning [64.4754948595556]
教師付き学習パラダイムは、しばしば利用可能なラベル付きデータの量によって制限される。
この現象は脳波(EEG)などの臨床関連データに特に問題となる。
ラベルのないデータから情報を抽出することで、ディープニューラルネットワークとの競合性能に到達することができるかもしれない。
論文 参考訳(メタデータ) (2020-07-31T14:34:47Z) - COMPOSE: Cross-Modal Pseudo-Siamese Network for Patient Trial Matching [70.08786840301435]
本稿では, CrOss-Modal PseudO-SiamEse Network (COMPOSE) を提案する。
実験の結果,患者基準マッチングでは98.0%,患者基準マッチングでは83.7%の精度でAUCに到達できることがわかった。
論文 参考訳(メタデータ) (2020-06-15T21:01:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。