論文の概要: Implicit Search Intent Recognition using EEG and Eye Tracking: Novel Dataset and Cross-User Prediction
- arxiv url: http://arxiv.org/abs/2508.01860v1
- Date: Sun, 03 Aug 2025 17:27:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:22.092645
- Title: Implicit Search Intent Recognition using EEG and Eye Tracking: Novel Dataset and Cross-User Prediction
- Title(参考訳): 脳波と視線追跡を用いた入射探索インテント認識:新しいデータセットとユーザ間予測
- Authors: Mansi Sharma, Shuang Chen, Philipp Müller, Maurice Rekrut, Antonio Krüger,
- Abstract要約: 本稿では,脳波と視線追跡記録からの検索意図のクロスユーザー予測法を提案する。
ユーザ1回の評価では84.5%の精度に達しています。
- 参考スコア(独自算出の注目度): 21.59167760456658
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: For machines to effectively assist humans in challenging visual search tasks, they must differentiate whether a human is simply glancing into a scene (navigational intent) or searching for a target object (informational intent). Previous research proposed combining electroencephalography (EEG) and eye-tracking measurements to recognize such search intents implicitly, i.e., without explicit user input. However, the applicability of these approaches to real-world scenarios suffers from two key limitations. First, previous work used fixed search times in the informational intent condition -- a stark contrast to visual search, which naturally terminates when the target is found. Second, methods incorporating EEG measurements addressed prediction scenarios that require ground truth training data from the target user, which is impractical in many use cases. We address these limitations by making the first publicly available EEG and eye-tracking dataset for navigational vs. informational intent recognition, where the user determines search times. We present the first method for cross-user prediction of search intents from EEG and eye-tracking recordings and reach 84.5% accuracy in leave-one-user-out evaluations -- comparable to within-user prediction accuracy (85.5%) but offering much greater flexibility
- Abstract(参考訳): 視覚的な探索作業において、機械が人間を効果的に支援するためには、人間が単にシーン(ナビゲーション意図)に群がっているか、あるいは対象物(情報意図)を探しているかを区別する必要がある。
従来、脳波(EEG)と眼球追跡計測を組み合わせた検索意図を暗黙的に認識する手法が提案されていた。
しかし、現実のシナリオへのこれらのアプローチの適用性には、2つの重要な制限がある。
第一に、以前の研究では、情報意図条件で一定の検索時間を使った -- 視覚検索とは対照的で、ターゲットが見つかると自然に終了する。
第二に、脳波計測を取り入れた手法は、ターゲットユーザからの真実のトレーニングデータを必要とする予測シナリオに対処するが、多くのユースケースでは現実的ではない。
ユーザが検索時間を決定するナビゲーション対情報意図認識のための、最初の公開EEGおよびアイトラッキングデータセットを作成することで、これらの制限に対処する。
脳波と視線追跡記録からの検索意図のクロスユーザー予測のための最初の手法を提案し, ユーザ内予測精度(85.5%)に匹敵する, 離脱ワンユーザアウト評価において84.5%の精度を達成した。
関連論文リスト
- Distinguishing Target and Non-Target Fixations with EEG and Eye Tracking in Realistic Visual Scenes [20.53761110476627]
本研究では,現実的な場面における自由な視覚探索における目標対目標外固定の分類について検討する。
視線と脳波の特徴に基づくアプローチは,従来の最先端アプローチよりも優れていた。
論文 参考訳(メタデータ) (2025-08-03T17:10:52Z) - Human Scanpath Prediction in Target-Present Visual Search with Semantic-Foveal Bayesian Attention [49.99728312519117]
SemBA-FASTは、ターゲットの視覚検索における人間の視覚的注意を予測するためのトップダウンフレームワークである。
我々は、COCO-Search18ベンチマークデータセット上でSemBA-FASTを評価し、その性能を他のスキャンパス予測モデルと比較した。
これらの知見は、人間のような注意モデリングのためのセマンティック・フレーバー・確率的フレームワークの能力に関する貴重な知見を提供する。
論文 参考訳(メタデータ) (2025-07-24T15:19:23Z) - Active Visual Search in the Wild [12.354788629408933]
本稿では,フリーフォーム言語を用いてターゲットコマンドを入力できるシステムを提案する。
私たちはこのシステムをActive Visual Search in the Wild (AVSW)と呼んでいる。
AVSWは、静的なランドマークで表されるセマンティックグリッドマップを通じて、ユーザが入力したターゲットオブジェクトを検出し、検索する計画である。
論文 参考訳(メタデータ) (2022-09-19T07:18:46Z) - Target-absent Human Attention [44.10971508325032]
探索終端問題に対処する最初のデータ駆動型計算モデルを提案する。
我々は、新しい状態表現を用いて、視聴者が固定によって取得する内部知識を表現する。
我々は,COCO-Search18データセット上での人的目標依存探索行動の予測における技術の現状を改善した。
論文 参考訳(メタデータ) (2022-07-04T02:32:04Z) - E^2TAD: An Energy-Efficient Tracking-based Action Detector [78.90585878925545]
本稿では,事前定義されたキーアクションを高精度かつ効率的にローカライズするためのトラッキングベースソリューションを提案する。
UAV-Video Track of 2021 Low-Power Computer Vision Challenge (LPCVC)で優勝した。
論文 参考訳(メタデータ) (2022-04-09T07:52:11Z) - Towards Optimal Correlational Object Search [25.355936023640506]
相関オブジェクト探索POMDPは相関情報を用いた探索戦略を作成することができる。
我々は,家庭環境の現実的なシミュレータであるAI2-THORと,広く使用されている物体検出器であるYOLOv5を用いて実験を行った。
論文 参考訳(メタデータ) (2021-10-19T14:03:43Z) - One-Shot Object Affordance Detection in the Wild [76.46484684007706]
Affordance Detectionは、画像内のオブジェクトの潜在的なアクション可能性を特定することを指す。
我々は、人間の行動目的を推定し、それを転送して、すべての候補画像から共通価格を検出するワンショットアフォーダンス検出ネットワーク(OSAD-Net)を考案する。
複雑なシーンと豊富なアノテーションによって、当社のPADv2データセットは、アベイランス検出メソッドをベンチマークするためのテストベッドとして使用することができます。
論文 参考訳(メタデータ) (2021-08-08T14:53:10Z) - Diverse Knowledge Distillation for End-to-End Person Search [81.4926655119318]
人物検索は、画像ギャラリーから特定の人物をローカライズし識別することを目的としている。
最近の手法は2つのグループ、すなわち2段階とエンドツーエンドのアプローチに分類できる。
ボトルネックを解消するために、多様な知識蒸留を備えたシンプルで強力なエンドツーエンドネットワークを提案します。
論文 参考訳(メタデータ) (2020-12-21T09:04:27Z) - DRG: Dual Relation Graph for Human-Object Interaction Detection [65.50707710054141]
人-物間相互作用(HOI)検出の課題に対処する。
既存の方法は、人間と物体の対の相互作用を独立に認識するか、複雑な外観に基づく共同推論を行う。
本稿では,抽象的空間意味表現を活用して,各対象対を記述し,二重関係グラフを用いてシーンの文脈情報を集約する。
論文 参考訳(メタデータ) (2020-08-26T17:59:40Z) - Towards End-to-end Video-based Eye-Tracking [50.0630362419371]
画像のみから視線を推定することは、観察不可能な人固有の要因のために難しい課題である。
本稿では,これらの意味的関係と時間的関係を明確に学習することを目的とした,新しいデータセットとアタッチメント手法を提案する。
視覚刺激からの情報と視線画像の融合が,文献に記録された人物と同じような性能を達成することにつながることを実証した。
論文 参考訳(メタデータ) (2020-07-26T12:39:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。