論文の概要: DEEPER: Dense Electroencephalography Passage Retrieval
- arxiv url: http://arxiv.org/abs/2412.06695v1
- Date: Mon, 09 Dec 2024 17:41:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-10 14:52:19.796600
- Title: DEEPER: Dense Electroencephalography Passage Retrieval
- Title(参考訳): DEEPER:Dense Electroencephalography Passage Retrieval
- Authors: Niall McGuire, Yashar Moshfeghi,
- Abstract要約: 本稿では,中間テキスト翻訳を使わずに,自然言語読影中にユーザの神経信号から関連する経路を直接検索する新しいフレームワークDEEPERを提案する。
密度の高い検索アーキテクチャ上に構築されているDEEPERでは、ニューラルデータ処理、EEG信号とテキストパスを共有セマンティック空間にマッピングするための特殊なコンポーネントを備えたデュアルエンコーダアプローチを採用している。
- 参考スコア(独自算出の注目度): 6.084958172018792
- License:
- Abstract: Information retrieval systems have historically relied on explicit query formulation, requiring users to translate their information needs into text. This process is particularly disruptive during reading tasks, where users must interrupt their natural flow to formulate queries. We present DEEPER (Dense Electroencephalography Passage Retrieval), a novel framework that enables direct retrieval of relevant passages from users' neural signals during naturalistic reading without intermediate text translation. Building on dense retrieval architectures, DEEPER employs a dual-encoder approach with specialised components for processing neural data, mapping EEG signals and text passages into a shared semantic space. Through careful architecture design and cross-modal negative sampling strategies, our model learns to align neural patterns with their corresponding textual content. Experimental results on the ZuCo dataset demonstrate that direct brain-to-passage retrieval significantly outperforms current EEG-to-text baselines, achieving a 571% improvement in Precision@1. Our ablation studies reveal that the model successfully learns aligned representations between EEG and text modalities (0.29 cosine similarity), while our hard negative sampling strategy contributes to overall performance increases.
- Abstract(参考訳): 情報検索システムはこれまで、明示的なクエリの定式化に頼ってきた。
このプロセスは、ユーザがクエリを定式化するために自然の流れを中断しなければならないタスクを読むときに特に破壊的です。
本稿では, 中間テキスト翻訳を使わずに, 自然言語読解中に, ユーザの神経信号から関連する経路を直接検索できる新しいフレームワークであるDEEPERを提案する。
密度の高い検索アーキテクチャ上に構築されているDEEPERでは、ニューラルデータ処理、EEG信号とテキストパスを共有セマンティック空間にマッピングするための特殊なコンポーネントを備えたデュアルエンコーダアプローチを採用している。
注意深いアーキテクチャ設計とクロスモーダルなネガティブサンプリング戦略を通じて、我々のモデルは、ニューラルネットワークパターンと対応するテキストコンテンツとの整合性を学ぶ。
ZuCoデータセットの実験結果によると、直接の脳と通過の検索は、現在の脳とテキストのベースラインを大幅に上回っており、Precision@1.571%の改善が達成されている。
脳波とテキストモダリティの整合性 (0.29コサイン類似性) を学習し, 高い負のサンプリング戦略は全体の性能向上に寄与することを示した。
関連論文リスト
- Boosting Semi-Supervised Scene Text Recognition via Viewing and Summarizing [71.29488677105127]
既存のシーンテキスト認識(STR)手法は、特に芸術的で歪んだ文字に対して、挑戦的なテキストを認識するのに苦労している。
人的コストを伴わずに、合成データと実際のラベルなしデータを活用して、対照的な学習ベースのSTRフレームワークを提案する。
本手法は,共通ベンチマークとUnion14M-Benchmarkで平均精度94.7%,70.9%のSOTA性能を実現する。
論文 参考訳(メタデータ) (2024-11-23T15:24:47Z) - Towards Linguistic Neural Representation Learning and Sentence Retrieval from Electroencephalogram Recordings [27.418738450536047]
脳波信号を文に変換するための2ステップパイプラインを提案する。
まず,自然読解中に記録された脳波データから単語レベルの意味情報を学習できることを確認する。
脳波エンコーダからの予測に基づいて文章を検索するために,学習不要な検索手法を用いる。
論文 参考訳(メタデータ) (2024-08-08T03:40:25Z) - Advancing Aspect-Based Sentiment Analysis through Deep Learning Models [4.0064131990718606]
本研究では,セティシィス(SentiSys)と呼ばれる革新的なエッジ強化GCNを導入し,無傷な特徴情報を保存しながら構文グラフをナビゲートする。
実験結果から,SentiSysを用いたアスペクトベース感情分析の性能向上が示された。
論文 参考訳(メタデータ) (2024-04-04T07:31:56Z) - Bidirectional Trained Tree-Structured Decoder for Handwritten
Mathematical Expression Recognition [51.66383337087724]
Handwriting Mathematical Expression Recognition (HMER) タスクは、OCRの分野における重要な分岐である。
近年の研究では、双方向コンテキスト情報の導入により、HMERモデルの性能が大幅に向上することが示されている。
本稿では,MF-SLT と双方向非同期トレーニング (BAT) 構造を提案する。
論文 参考訳(メタデータ) (2023-12-31T09:24:21Z) - A Hybrid End-to-End Spatio-Temporal Attention Neural Network with
Graph-Smooth Signals for EEG Emotion Recognition [1.6328866317851187]
本稿では,ネットワーク・テンポラルエンコーディングと繰り返しアテンションブロックのハイブリッド構造を用いて,解釈可能な表現を取得するディープニューラルネットワークを提案する。
提案したアーキテクチャは、公開されているDEAPデータセット上での感情分類の最先端結果を上回ることを実証する。
論文 参考訳(メタデータ) (2023-07-06T15:35:14Z) - REDAffectiveLM: Leveraging Affect Enriched Embedding and
Transformer-based Neural Language Model for Readers' Emotion Detection [3.6678641723285446]
本稿では,REDAffectiveLMと呼ばれる深層学習モデルを用いて,短文文書からの読み手感情検出のための新しい手法を提案する。
コンテクストに特化してリッチ表現に影響を与え, リッチBi-LSTM+Attentionに影響を及ぼすタンデムにおいて, トランスフォーマーに基づく事前学習言語モデルを用いることで, リッチ表現に影響を及ぼす。
論文 参考訳(メタデータ) (2023-01-21T19:28:25Z) - End-to-End Active Speaker Detection [58.7097258722291]
本稿では,特徴学習と文脈予測を共同で学習するエンド・ツー・エンドのトレーニングネットワークを提案する。
また、時間間グラフニューラルネットワーク(iGNN)ブロックを導入し、ASD問題における主要なコンテキストのソースに応じてメッセージパッシングを分割する。
実験により、iGNNブロックからの集約された特徴はASDにより適しており、その結果、最先端のアートパフォーマンスが得られることが示された。
論文 参考訳(メタデータ) (2022-03-27T08:55:28Z) - MERIt: Meta-Path Guided Contrastive Learning for Logical Reasoning [63.50909998372667]
テキストの論理的ReasonIngに対して,Metaパスを用いたコントラスト学習手法であるMERItを提案する。
2つの新しい戦略が我々の手法の必須要素である。
論文 参考訳(メタデータ) (2022-03-01T11:13:00Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - Neural Data-to-Text Generation via Jointly Learning the Segmentation and
Correspondence [48.765579605145454]
対象のテキストを断片単位に明示的に分割し,それらのデータ対応と整合させることを提案する。
結果として生じるアーキテクチャは、ニューラルアテンションモデルと同じ表現力を維持している。
E2EとWebNLGのベンチマークでは、提案モデルがニューラルアテンションよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2020-05-03T14:28:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。