論文の概要: Pop-out vs. Glue: A Study on the pre-attentive and focused attention stages in Visual Search tasks
- arxiv url: http://arxiv.org/abs/2412.12198v1
- Date: Sat, 14 Dec 2024 13:31:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-18 13:57:16.779347
- Title: Pop-out vs. Glue: A Study on the pre-attentive and focused attention stages in Visual Search tasks
- Title(参考訳): Pop-out vs. Glue:視覚検索タスクにおける事前注意段階と集中注意段階に関する研究
- Authors: Hendrik Beukelman, Wilder C. Rodrigues,
- Abstract要約: この研究は、TreismanのFeature Integration Theoryに基づく。
本実験では,垂直方向の斜め線と斜め方向の斜め線とがどの程度容易かを検討した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This study explores visual search asymmetry and the detection process between parallel and serial search strategies, building upon Treisman's Feature Integration Theory [3]. Our experiment examines how easy it is to locate an oblique line among vertical distractors versus a vertical line among oblique distractors, a framework previously validated by Treisman & Gormican (1988) [4] and Gupta et al. (2015) [1]. We hypothesised that an oblique target among vertical lines would produce a perceptual 'pop-out' effect, allowing for faster, parallel search, while the reverse condition would require serial search strategy. Seventy-eight participants from Utrecht University engaged in trials with varied target-distractor orientations and number of items. We measured reaction times and found a significant effect of target type on search speed: oblique targets were identified more quickly, reflecting 'pop-out' behaviour, while vertical targets demanded focused attention ('glue phase'). Our results align with past findings, supporting our hypothesis on search asymmetry and its dependency on distinct visual features. Future research could benefit from eye-tracking and neural network analysis, particularly for identifying the neural processing of visual features in both parallel and serial search conditions.
- Abstract(参考訳): 本研究では,Treisman's Feature Integration Theory [3]に基づいて,ビジュアルサーチ非対称性と並列探索戦略とシリアル探索戦略間の検出過程について検討する。
実験では, 垂直方向の散逸線と垂直方向の散逸線との対向線の位置を求めるのがいかに容易かを検討した。
我々は,垂直線間の斜め対象が知覚的な「ポップアウト」効果を生じ,高速かつ並列な探索が可能であり,逆条件ではシリアル検索戦略が必要であると仮定した。
ユトレヒト大学(ユトレヒト大学)の78人の参加者は、さまざまなターゲット・ディストラクタ指向とアイテム数で試行を行った。
反応時間を測定し,対象のタイプが探索速度に有意な影響を見出した。斜めのターゲットは「ポップアウト」な振る舞いを反映してより高速に識別され,垂直のターゲットは集中注意(「グルエフェーズ」)を必要とした。
この結果は過去の知見と一致し,探索非対称性に関する仮説と,その視覚的特徴への依存性を裏付けるものである。
将来の研究は、視線追跡とニューラルネットワーク分析の恩恵を受け、特に並列検索条件とシリアル検索条件の両方における視覚的特徴のニューラル処理を識別する。
関連論文リスト
- Exploring Predicate Visual Context in Detecting Human-Object
Interactions [44.937383506126274]
クロスアテンションによる画像特徴の再導入について検討する。
PViCはHICO-DETおよびV-COCOベンチマークにおいて最先端の手法より優れている。
論文 参考訳(メタデータ) (2023-08-11T15:57:45Z) - ResMatch: Residual Attention Learning for Local Feature Matching [51.07496081296863]
従来の特徴マッチングとフィルタリングの観点から、クロスアテンションとセルフアテンションを再考する。
我々は,記述者と相対的な位置の類似性を,クロスアテンションスコアとセルフアテンションスコアに注入する。
我々は、記述子と相対的な位置の類似性に応じて隣人内および隣人間を採掘する。
論文 参考訳(メタデータ) (2023-07-11T11:32:12Z) - A Comprehensive Review of Image Line Segment Detection and Description: Taxonomies, Comparisons, and Challenges [36.888654238348416]
本研究では,2次元イメージラインセグメントの検出と記述に関する関連研究を網羅的にレビューする。
主要な問題、コアアイデア、既存のメソッドの利点とデメリット、そしてそれらの潜在的な応用について分析する。
いくつかの最先端のセグメント検出と記述アルゴリズムはバイアスなく評価され、評価コードが公開される。
論文 参考訳(メタデータ) (2023-04-29T13:59:50Z) - Causal Triplet: An Open Challenge for Intervention-centric Causal
Representation Learning [98.78136504619539]
Causal Tripletは、視覚的に複雑なシーンを特徴とする因果表現学習ベンチマークである。
この結果から,不整合表現やオブジェクト中心表現の知識によって構築されたモデルが,分散表現よりもはるかに優れていることを示す。
論文 参考訳(メタデータ) (2023-01-12T17:43:38Z) - An Inter-observer consistent deep adversarial training for visual
scanpath prediction [66.46953851227454]
本稿では,軽量なディープニューラルネットワークによるスキャンパス予測のための,サーバ間一貫した対向トレーニング手法を提案する。
我々は、最先端の手法に関して、我々のアプローチの競争力を示す。
論文 参考訳(メタデータ) (2022-11-14T13:22:29Z) - Correlation-Aware Deep Tracking [83.51092789908677]
本稿では,自己/横断的意図に着想を得た,新たなターゲット依存型特徴ネットワークを提案する。
我々のネットワークは機能ネットワークの複数の層にクロスイメージの特徴相関を深く埋め込んでいる。
我々のモデルは、豊富な未ペア画像に対して柔軟に事前訓練が可能であり、既存の手法よりも顕著に高速な収束をもたらす。
論文 参考訳(メタデータ) (2022-03-03T11:53:54Z) - Compositional Attention: Disentangling Search and Retrieval [66.7108739597771]
Multi-head, key-value attention は Transformer モデルとそのバリエーションのバックボーンである。
標準的なアテンションヘッドは、検索と検索の間の厳密なマッピングを学ぶ。
本稿では,標準ヘッド構造を置き換える新しいアテンション機構であるコンポジションアテンションアテンションを提案する。
論文 参考訳(メタデータ) (2021-10-18T15:47:38Z) - A Low Rank Promoting Prior for Unsupervised Contrastive Learning [108.91406719395417]
提案手法は,従来の低階の促進をコントラスト学習の枠組みに効果的に組み込む新しい確率的グラフィカルモデルを構築する。
我々の仮説は、同じインスタンスクラスに属するすべてのサンプルが、小さな次元の同じ部分空間上にあることを明示的に要求する。
実証的な証拠は、提案アルゴリズムが複数のベンチマークにおける最先端のアプローチを明らかに上回っていることを示している。
論文 参考訳(メタデータ) (2021-08-05T15:58:25Z) - Visual Search Asymmetry: Deep Nets and Humans Share Similar Inherent
Biases [7.209733010493132]
古典的な探索タスクの興味深い性質は、邪魔者Bの目標Aを見つけることが、Aの中の目標Bを見つけることよりも容易である、という非対称性である。
本稿では,対象物と探索画像を入力として取り込んで,対象物が見つかるまで眼球運動列を生成する計算モデルを提案する。
ヒトの非対称性を示す6つのパラダイム探索課題において、人間の行動に対するモデルを比較した。
論文 参考訳(メタデータ) (2021-06-05T19:46:42Z) - Classifying Eye-Tracking Data Using Saliency Maps [8.524684315458245]
本稿では,視線追跡データの自動的,定量的分類のための視覚情報に基づく特徴抽出手法を提案する。
サリエンシの振幅、類似度、相違点を対応するアイフィクスマップと比較すると、視覚追跡データを識別するために識別的特徴を生成するために有効に活用される情報の余分な次元が得られる。
論文 参考訳(メタデータ) (2020-10-24T15:18:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。