論文の概要: Target Features Affect Visual Search, A Study of Eye Fixations
- arxiv url: http://arxiv.org/abs/2209.13771v1
- Date: Wed, 28 Sep 2022 01:53:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 17:56:40.696696
- Title: Target Features Affect Visual Search, A Study of Eye Fixations
- Title(参考訳): 目標特徴が視覚検索に与える影響 : 眼球固定の検討
- Authors: Manoosh Samiei, James J. Clark
- Abstract要約: 視覚探索における被験者のパフォーマンスが,異なるパラメータによってどう影響されるかを検討する。
我々の研究では、より大きく偏心的なターゲットが、より少ない数の固定でより高速に見つかることが示されている。
- 参考スコア(独自算出の注目度): 2.7920304852537527
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visual Search is referred to the task of finding a target object among a set
of distracting objects in a visual display. In this paper, based on an
independent analysis of the COCO-Search18 dataset, we investigate how the
performance of human participants during visual search is affected by different
parameters such as the size and eccentricity of the target object. We also
study the correlation between the error rate of participants and search
performance. Our studies show that a bigger and more eccentric target is found
faster with fewer number of fixations. Our code for the graphics are publicly
available at: \url{https://github.com/ManooshSamiei/COCOSearch18_Analysis}
- Abstract(参考訳): ビジュアル検索は、視覚ディスプレイ内の注意をそらすオブジェクトのセットの中でターゲットオブジェクトを見つけるタスクである。
本稿では,coco-search18データセットの独立解析に基づいて,対象オブジェクトのサイズや偏心度などの異なるパラメータが,視覚探索時の被験者のパフォーマンスに与える影響について検討する。
また,被験者の誤り率と探索性能の相関について検討した。
我々の研究では、より大きく偏心的な目標が、より少ない数の固定でより早く見つかることが示されている。
グラフィックのコードは、 \url{https://github.com/manooshsamiei/cocosearch18_ analysis} で公開されている。
関連論文リスト
- SeeBel: Seeing is Believing [0.9790236766474201]
本稿では,全画像のセグメンテーションにおけるデータセット統計とAI性能を比較するための3つの可視化手法を提案する。
我々のプロジェクトは、画像の注意重みを可視化することで、セグメンテーションのための訓練されたAIモデルの解釈可能性をさらに高めようとしている。
我々は,コンピュータビジョンとAI領域における可視化ツールの有効性を検討するために,実際のユーザを対象に調査を行うことを提案する。
論文 参考訳(メタデータ) (2023-12-18T05:11:00Z) - Unified Visual Relationship Detection with Vision and Language Models [89.77838890788638]
この研究は、複数のデータセットからラベル空間の結合を予測する単一の視覚的関係検出器のトレーニングに焦点を当てている。
視覚と言語モデルを活用した統合視覚関係検出のための新しいボトムアップ手法UniVRDを提案する。
人物体間相互作用検出とシーングラフ生成の双方による実験結果から,本モデルの競合性能が示された。
論文 参考訳(メタデータ) (2023-03-16T00:06:28Z) - Efficient Zero-shot Visual Search via Target and Context-aware
Transformer [5.652978777706897]
ターゲット情報とコンテキスト情報を用いて視覚変換器の自己注意を変調するゼロショット深層学習アーキテクチャ(TCT)を提案する。
様々な難易度を持つ3つの自然シーンデータセット上で,TCTや他の競合するビジュアルサーチモデル上でビジュアルサーチ実験を行う。
TCTは、検索効率の点で人間に似た性能を示し、視覚的な検索課題においてSOTAモデルに勝っている。
論文 参考訳(メタデータ) (2022-11-24T08:27:47Z) - Predicting Visual Attention and Distraction During Visual Search Using
Convolutional Neural Networks [2.7920304852537527]
視覚探索において,視覚的注意をモデル化し,観察者の注意を逸脱させる2つの手法を提案する。
我々の最初のアプローチは、人間の目の視線密度マップを検索画像のピクセル上で予測するために、軽量な自由視度モデルに適応する。
第2のアプローチはオブジェクトベースであり、視覚検索中の乱れや対象物を予測する。
論文 参考訳(メタデータ) (2022-10-27T00:39:43Z) - Learning Target Candidate Association to Keep Track of What Not to Track [100.80610986625693]
目標を追尾し続けるために、逸脱物を追跡することを提案します。
視覚的トラッキングにおいて, トラクタオブジェクト間の接地トルース対応を欠く問題に対処するために, 部分アノテーションと自己監督を組み合わせたトレーニング戦略を提案する。
我々のトラッカーは6つのベンチマークで新しい最先端のベンチマークを設定し、AUCスコアはLaSOTで67.2%、OxUvA長期データセットで+6.1%向上した。
論文 参考訳(メタデータ) (2021-03-30T17:58:02Z) - Graph Attention Tracking [76.19829750144564]
汎用オブジェクト追跡のための簡易な目標認識型シームズグラフアテンションネットワークを提案する。
GOT-10k、UAV123、TB-100、LaSOTといった挑戦的なベンチマークの実験は、提案されたSiamGATが最先端のトラッカーよりも優れていることを示した。
論文 参考訳(メタデータ) (2020-11-23T04:26:45Z) - What Can You Learn from Your Muscles? Learning Visual Representation
from Human Interactions [50.435861435121915]
視覚のみの表現よりも優れた表現を学べるかどうかを調べるために,人間のインタラクションとアテンション・キューを用いている。
実験の結果,我々の「音楽監督型」表現は,視覚のみの最先端手法であるMoCoよりも優れていた。
論文 参考訳(メタデータ) (2020-10-16T17:46:53Z) - DRG: Dual Relation Graph for Human-Object Interaction Detection [65.50707710054141]
人-物間相互作用(HOI)検出の課題に対処する。
既存の方法は、人間と物体の対の相互作用を独立に認識するか、複雑な外観に基づく共同推論を行う。
本稿では,抽象的空間意味表現を活用して,各対象対を記述し,二重関係グラフを用いてシーンの文脈情報を集約する。
論文 参考訳(メタデータ) (2020-08-26T17:59:40Z) - ConsNet: Learning Consistency Graph for Zero-Shot Human-Object
Interaction Detection [101.56529337489417]
画像中のHuman, Action, Object>の形のHOIインスタンスを検出・認識することを目的としたHuman-Object Interaction (HOI) Detectionの問題点を考察する。
我々は、オブジェクト、アクション、インタラクション間の多レベルコンパレンシーは、稀な、あるいは以前には見られなかったHOIのセマンティック表現を生成するための強力な手がかりであると主張している。
提案モデルでは,人-対象のペアの視覚的特徴とHOIラベルの単語埋め込みを入力とし,それらを視覚-意味的関節埋め込み空間にマッピングし,類似度を計測して検出結果を得る。
論文 参考訳(メタデータ) (2020-08-14T09:11:18Z) - VSGNet: Spatial Attention Network for Detecting Human Object
Interactions Using Graph Convolutions [13.83595180218225]
相対的な空間的推論とオブジェクト間の構造的接続は、相互作用を分析するための重要な手段である。
提案したVisual-Spatial-Graph Network (VSGNet)アーキテクチャは、人間とオブジェクトのペアから視覚的特徴を抽出する。
VSGNetは、V-COCOでは8%または4mAP、HICO-DETでは16%または3mAPで最先端のソリューションを上回っている。
論文 参考訳(メタデータ) (2020-03-11T22:23:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。