論文の概要: Distinguishing Target and Non-Target Fixations with EEG and Eye Tracking in Realistic Visual Scenes
- arxiv url: http://arxiv.org/abs/2508.01853v1
- Date: Sun, 03 Aug 2025 17:10:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:22.090135
- Title: Distinguishing Target and Non-Target Fixations with EEG and Eye Tracking in Realistic Visual Scenes
- Title(参考訳): リアルな視覚シーンにおける脳波と視線追跡による目標・目標外固定
- Authors: Mansi Sharma, Camilo Andrés Martínez Martínez, Benedikt Emanuel Wirth, Antonio Krüger, Philipp Müller,
- Abstract要約: 本研究では,現実的な場面における自由な視覚探索における目標対目標外固定の分類について検討する。
視線と脳波の特徴に基づくアプローチは,従来の最先端アプローチよりも優れていた。
- 参考スコア(独自算出の注目度): 20.53761110476627
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Distinguishing target from non-target fixations during visual search is a fundamental building block to understand users' intended actions and to build effective assistance systems. While prior research indicated the feasibility of classifying target vs. non-target fixations based on eye tracking and electroencephalography (EEG) data, these studies were conducted with explicitly instructed search trajectories, abstract visual stimuli, and disregarded any scene context. This is in stark contrast with the fact that human visual search is largely driven by scene characteristics and raises questions regarding generalizability to more realistic scenarios. To close this gap, we, for the first time, investigate the classification of target vs. non-target fixations during free visual search in realistic scenes. In particular, we conducted a 36-participants user study using a large variety of 140 realistic visual search scenes in two highly relevant application scenarios: searching for icons on desktop backgrounds and finding tools in a cluttered workshop. Our approach based on gaze and EEG features outperforms the previous state-of-the-art approach based on a combination of fixation duration and saccade-related potentials. We perform extensive evaluations to assess the generalizability of our approach across scene types. Our approach significantly advances the ability to distinguish between target and non-target fixations in realistic scenarios, achieving 83.6% accuracy in cross-user evaluations. This substantially outperforms previous methods based on saccade-related potentials, which reached only 56.9% accuracy.
- Abstract(参考訳): 視覚検索における非目標固定から目標を逸脱することは、ユーザの意図した行動を理解し、効果的な支援システムを構築するための基本的な構成要素である。
眼球追跡・脳波データ(EEG)データに基づく標的と標的でない固定の分類の可能性を示す以前の研究では,これらの研究は,明示的に指示された探索軌跡,抽象的な視覚刺激を用いて行われ,シーンコンテキストを無視した。
これは、人間の視覚検索がシーンの特徴に大きく左右され、より現実的なシナリオへの一般化可能性に関する疑問が提起されるという事実とは対照的である。
このギャップを埋めるために,我々は,現実的な場面における自由な視覚探索における目標と目標でない固定の分類を初めて検討した。
特に,デスクトップの背景にあるアイコンの検索と,散らかったワークショップでのツール検索という,関連性の高い2つのシナリオにおいて,140のリアルなビジュアル検索シーンを多種多様に使用した36名のユーザスタディを行った。
視線と脳波の特徴に基づくアプローチは,固定期間とササード関連電位の組み合わせにより,従来の最先端アプローチよりも優れていた。
我々は、シーンタイプにわたるアプローチの一般化性を評価するために、広範囲な評価を行う。
提案手法は,現実シナリオにおける目標固定と非目標固定の区別能力を大幅に向上させ,ユーザ間評価において83.6%の精度を達成した。
これはササード関連電位に基づいて、56.9%の精度で従来の手法よりも大幅に優れていた。
関連論文リスト
- Implicit Search Intent Recognition using EEG and Eye Tracking: Novel Dataset and Cross-User Prediction [21.59167760456658]
本稿では,脳波と視線追跡記録からの検索意図のクロスユーザー予測法を提案する。
ユーザ1回の評価では84.5%の精度に達しています。
論文 参考訳(メタデータ) (2025-08-03T17:27:32Z) - Human Scanpath Prediction in Target-Present Visual Search with Semantic-Foveal Bayesian Attention [49.99728312519117]
SemBA-FASTは、ターゲットの視覚検索における人間の視覚的注意を予測するためのトップダウンフレームワークである。
我々は、COCO-Search18ベンチマークデータセット上でSemBA-FASTを評価し、その性能を他のスキャンパス予測モデルと比較した。
これらの知見は、人間のような注意モデリングのためのセマンティック・フレーバー・確率的フレームワークの能力に関する貴重な知見を提供する。
論文 参考訳(メタデータ) (2025-07-24T15:19:23Z) - Towards Pixel-Level Prediction for Gaze Following: Benchmark and Approach [27.84672974344777]
本稿ではGazeSegという新しい視線目標予測手法を提案する。
人物の空間的視野を案内情報として完全に活用し、徐々に粗い視線目標のセグメンテーションと認識プロセスへと導くことができる。
本手法は、視線目標セグメンテーションにおける0.325のDiceと、71.7%のトップ5認識を実現する。
論文 参考訳(メタデータ) (2024-11-30T01:27:48Z) - Zero-Shot Object-Centric Representation Learning [72.43369950684057]
ゼロショット一般化のレンズによる現在の対象中心法について検討する。
8つの異なる合成および実世界のデータセットからなるベンチマークを導入する。
多様な実世界の画像のトレーニングにより、見えないシナリオへの転送性が向上することがわかった。
論文 参考訳(メタデータ) (2024-08-17T10:37:07Z) - Semantic-Based Active Perception for Humanoid Visual Tasks with Foveal Sensors [49.99728312519117]
この研究の目的は、最近の意味に基づくアクティブな知覚モデルが、人間が定期的に行う視覚的なタスクをいかに正確に達成できるかを確立することである。
このモデルは、現在のオブジェクト検出器が多数のオブジェクトクラスをローカライズし、分類し、複数の固定にまたがるシーンのセマンティック記述を更新する能力を利用する。
シーン探索の課題では、セマンティック・ベースの手法は従来のサリエンシ・ベース・モデルよりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-04-16T18:15:57Z) - Less is More: Toward Zero-Shot Local Scene Graph Generation via
Foundation Models [16.08214739525615]
ローカルシーングラフ生成という新しいタスクを提案する。
部分的オブジェクトとそれらの関係をイメージとして、関連する構造情報を抽象化することを目的としている。
我々は,zEro-shot Local scEne GrAph geNeraTion (ELEGANT)を紹介した。
論文 参考訳(メタデータ) (2023-10-02T17:19:04Z) - Object Manipulation via Visual Target Localization [64.05939029132394]
オブジェクトを操作するための訓練エージェントは、多くの課題を提起します。
本研究では,対象物体を探索する環境を探索し,位置が特定されると3次元座標を計算し,対象物が見えない場合でも3次元位置を推定する手法を提案する。
評価の結果,同じ感覚スイートにアクセス可能なモデルに比べて,成功率が3倍に向上したことが示された。
論文 参考訳(メタデータ) (2022-03-15T17:59:01Z) - One-Shot Object Affordance Detection in the Wild [76.46484684007706]
Affordance Detectionは、画像内のオブジェクトの潜在的なアクション可能性を特定することを指す。
我々は、人間の行動目的を推定し、それを転送して、すべての候補画像から共通価格を検出するワンショットアフォーダンス検出ネットワーク(OSAD-Net)を考案する。
複雑なシーンと豊富なアノテーションによって、当社のPADv2データセットは、アベイランス検出メソッドをベンチマークするためのテストベッドとして使用することができます。
論文 参考訳(メタデータ) (2021-08-08T14:53:10Z) - Deep Learning for Scene Classification: A Survey [48.57123373347695]
シーン分類は、コンピュータビジョンにおける長年の、根本的かつ挑戦的な問題である。
大規模データセットの出現と深層学習技術のルネッサンスは、シーン表現と分類の分野において顕著な進歩をもたらした。
本稿では,深層学習によるシーン分類における最近の成果を総合的に調査する。
論文 参考訳(メタデータ) (2021-01-26T03:06:50Z) - Embodied Visual Active Learning for Semantic Segmentation [33.02424587900808]
本研究では,エージェントが3次元環境を探索し,視覚シーン理解の獲得を目指す,具体化されたビジュアルアクティブラーニングの課題について検討する。
我々は、学習と事前指定の両方のエージェントのバッテリーを開発し、環境に関する異なるレベルの知識で開発する。
本研究では,matterport3dシミュレータを用いて提案手法を広範囲に評価し,本手法が比較対象よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-12-17T11:02:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。