論文の概要: Target Features Affect Visual Search, A Study of Eye Fixations
- arxiv url: http://arxiv.org/abs/2209.13771v1
- Date: Wed, 28 Sep 2022 01:53:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 17:56:40.696696
- Title: Target Features Affect Visual Search, A Study of Eye Fixations
- Title(参考訳): 目標特徴が視覚検索に与える影響 : 眼球固定の検討
- Authors: Manoosh Samiei, James J. Clark
- Abstract要約: 視覚探索における被験者のパフォーマンスが,異なるパラメータによってどう影響されるかを検討する。
我々の研究では、より大きく偏心的なターゲットが、より少ない数の固定でより高速に見つかることが示されている。
- 参考スコア(独自算出の注目度): 2.7920304852537527
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visual Search is referred to the task of finding a target object among a set
of distracting objects in a visual display. In this paper, based on an
independent analysis of the COCO-Search18 dataset, we investigate how the
performance of human participants during visual search is affected by different
parameters such as the size and eccentricity of the target object. We also
study the correlation between the error rate of participants and search
performance. Our studies show that a bigger and more eccentric target is found
faster with fewer number of fixations. Our code for the graphics are publicly
available at: \url{https://github.com/ManooshSamiei/COCOSearch18_Analysis}
- Abstract(参考訳): ビジュアル検索は、視覚ディスプレイ内の注意をそらすオブジェクトのセットの中でターゲットオブジェクトを見つけるタスクである。
本稿では,coco-search18データセットの独立解析に基づいて,対象オブジェクトのサイズや偏心度などの異なるパラメータが,視覚探索時の被験者のパフォーマンスに与える影響について検討する。
また,被験者の誤り率と探索性能の相関について検討した。
我々の研究では、より大きく偏心的な目標が、より少ない数の固定でより早く見つかることが示されている。
グラフィックのコードは、 \url{https://github.com/manooshsamiei/cocosearch18_ analysis} で公開されている。
関連論文リスト
- Correlation of Object Detection Performance with Visual Saliency and Depth Estimation [0.09208007322096533]
本稿では,物体検出精度と,深度予測と視覚塩分率予測の2つの基本的な視覚的課題の相関について検討する。
分析の結果,これらの相関は対象のカテゴリ間で有意な変化を示し,相関値がより小さいオブジェクトの最大3倍も大きいことが判明した。
これらの結果から, 物体検出アーキテクチャに視覚的サリエンシ機能を組み込むことは, 深度情報よりも有益であることが示唆された。
論文 参考訳(メタデータ) (2024-11-05T06:34:19Z) - OAT: Object-Level Attention Transformer for Gaze Scanpath Prediction [0.2796197251957245]
本稿では,OAT(Object-level Attention Transformer)を紹介する。
OATは人間のスキャンパスを予測し、散らかった邪魔者のシーンで対象物を検索する。
我々は、Amazonの書籍カバーデータセットと、収集したビジュアル検索のための新しいデータセットに基づいて、OATを評価した。
論文 参考訳(メタデータ) (2024-07-18T09:33:17Z) - Semantic-Based Active Perception for Humanoid Visual Tasks with Foveal Sensors [49.99728312519117]
この研究の目的は、最近の意味に基づくアクティブな知覚モデルが、人間が定期的に行う視覚的なタスクをいかに正確に達成できるかを確立することである。
このモデルは、現在のオブジェクト検出器が多数のオブジェクトクラスをローカライズし、分類し、複数の固定にまたがるシーンのセマンティック記述を更新する能力を利用する。
シーン探索の課題では、セマンティック・ベースの手法は従来のサリエンシ・ベース・モデルよりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-04-16T18:15:57Z) - Visual Context-Aware Person Fall Detection [52.49277799455569]
画像中の個人とオブジェクトを半自動分離するセグメンテーションパイプラインを提案する。
ベッド、椅子、車椅子などの背景オブジェクトは、転倒検知システムに挑戦し、誤ったポジティブアラームを引き起こす。
トレーニング中のオブジェクト固有のコンテキスト変換が、この課題を効果的に軽減することを示す。
論文 参考訳(メタデータ) (2024-04-11T19:06:36Z) - SeeBel: Seeing is Believing [0.9790236766474201]
本稿では,全画像のセグメンテーションにおけるデータセット統計とAI性能を比較するための3つの可視化手法を提案する。
我々のプロジェクトは、画像の注意重みを可視化することで、セグメンテーションのための訓練されたAIモデルの解釈可能性をさらに高めようとしている。
我々は,コンピュータビジョンとAI領域における可視化ツールの有効性を検討するために,実際のユーザを対象に調査を行うことを提案する。
論文 参考訳(メタデータ) (2023-12-18T05:11:00Z) - Unified Visual Relationship Detection with Vision and Language Models [89.77838890788638]
この研究は、複数のデータセットからラベル空間の結合を予測する単一の視覚的関係検出器のトレーニングに焦点を当てている。
視覚と言語モデルを活用した統合視覚関係検出のための新しいボトムアップ手法UniVRDを提案する。
人物体間相互作用検出とシーングラフ生成の双方による実験結果から,本モデルの競合性能が示された。
論文 参考訳(メタデータ) (2023-03-16T00:06:28Z) - Efficient Zero-shot Visual Search via Target and Context-aware
Transformer [5.652978777706897]
ターゲット情報とコンテキスト情報を用いて視覚変換器の自己注意を変調するゼロショット深層学習アーキテクチャ(TCT)を提案する。
様々な難易度を持つ3つの自然シーンデータセット上で,TCTや他の競合するビジュアルサーチモデル上でビジュアルサーチ実験を行う。
TCTは、検索効率の点で人間に似た性能を示し、視覚的な検索課題においてSOTAモデルに勝っている。
論文 参考訳(メタデータ) (2022-11-24T08:27:47Z) - Predicting Visual Attention and Distraction During Visual Search Using
Convolutional Neural Networks [2.7920304852537527]
視覚探索において,視覚的注意をモデル化し,観察者の注意を逸脱させる2つの手法を提案する。
我々の最初のアプローチは、人間の目の視線密度マップを検索画像のピクセル上で予測するために、軽量な自由視度モデルに適応する。
第2のアプローチはオブジェクトベースであり、視覚検索中の乱れや対象物を予測する。
論文 参考訳(メタデータ) (2022-10-27T00:39:43Z) - Learning Target Candidate Association to Keep Track of What Not to Track [100.80610986625693]
目標を追尾し続けるために、逸脱物を追跡することを提案します。
視覚的トラッキングにおいて, トラクタオブジェクト間の接地トルース対応を欠く問題に対処するために, 部分アノテーションと自己監督を組み合わせたトレーニング戦略を提案する。
我々のトラッカーは6つのベンチマークで新しい最先端のベンチマークを設定し、AUCスコアはLaSOTで67.2%、OxUvA長期データセットで+6.1%向上した。
論文 参考訳(メタデータ) (2021-03-30T17:58:02Z) - DRG: Dual Relation Graph for Human-Object Interaction Detection [65.50707710054141]
人-物間相互作用(HOI)検出の課題に対処する。
既存の方法は、人間と物体の対の相互作用を独立に認識するか、複雑な外観に基づく共同推論を行う。
本稿では,抽象的空間意味表現を活用して,各対象対を記述し,二重関係グラフを用いてシーンの文脈情報を集約する。
論文 参考訳(メタデータ) (2020-08-26T17:59:40Z) - ConsNet: Learning Consistency Graph for Zero-Shot Human-Object
Interaction Detection [101.56529337489417]
画像中のHuman, Action, Object>の形のHOIインスタンスを検出・認識することを目的としたHuman-Object Interaction (HOI) Detectionの問題点を考察する。
我々は、オブジェクト、アクション、インタラクション間の多レベルコンパレンシーは、稀な、あるいは以前には見られなかったHOIのセマンティック表現を生成するための強力な手がかりであると主張している。
提案モデルでは,人-対象のペアの視覚的特徴とHOIラベルの単語埋め込みを入力とし,それらを視覚-意味的関節埋め込み空間にマッピングし,類似度を計測して検出結果を得る。
論文 参考訳(メタデータ) (2020-08-14T09:11:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。