論文の概要: Modeling human visual search: A combined Bayesian searcher and saliency
map approach for eye movement guidance in natural scenes
- arxiv url: http://arxiv.org/abs/2009.08373v2
- Date: Tue, 8 Dec 2020 04:02:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 08:53:34.636776
- Title: Modeling human visual search: A combined Bayesian searcher and saliency
map approach for eye movement guidance in natural scenes
- Title(参考訳): 人間の視覚探索のモデル化:自然界における視線誘導のためのベイジアンサーチとサリエンシマップの併用
- Authors: M. Sclar, G. Bujia, S. Vita, G. Solovey, J. E. Kamienkowski
- Abstract要約: そこで本稿では,従量性マップによる視覚検索を事前情報として統合したベイズモデルを提案する。
視覚検索タスクにおける最初の2つの修正の予測において,最先端のサリエンシモデルが良好に機能することを示すが,その後,その性能は低下する。
これは、サリエンシマップだけでボトムアップファーストインプレッションをモデル化できるが、トップダウンタスク情報が重要な場合、スキャンパスを説明するのに十分ではないことを示唆している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Finding objects is essential for almost any daily-life visual task. Saliency
models have been useful to predict fixation locations in natural images, but
are static, i.e., they provide no information about the time-sequence of
fixations. Nowadays, one of the biggest challenges in the field is to go beyond
saliency maps to predict a sequence of fixations related to a visual task, such
as searching for a given target. Bayesian observer models have been proposed
for this task, as they represent visual search as an active sampling process.
Nevertheless, they were mostly evaluated on artificial images, and how they
adapt to natural images remains largely unexplored.
Here, we propose a unified Bayesian model for visual search guided by
saliency maps as prior information. We validated our model with a visual search
experiment in natural scenes recording eye movements. We show that, although
state-of-the-art saliency models perform well in predicting the first two
fixations in a visual search task, their performance degrades to chance
afterward. This suggests that saliency maps alone are good to model bottom-up
first impressions, but are not enough to explain the scanpaths when top-down
task information is critical. Thus, we propose to use them as priors of
Bayesian searchers. This approach leads to a behavior very similar to humans
for the whole scanpath, both in the percentage of target found as a function of
the fixation rank and the scanpath similarity, reproducing the entire sequence
of eye movements.
- Abstract(参考訳): オブジェクトを見つけることは、ほぼ毎日の視覚的なタスクに不可欠である。
正当性モデルは、自然画像の固定位置を予測するのに有用であるが、静的である。
現在、この分野における最大の課題の1つは、与えられた目標の探索など、視覚的なタスクに関連する一連の修正を予測するために、サリエンシマップを超えて行くことである。
この課題に対してベイズ観測モデルが提案されており、視覚探索をアクティブサンプリングプロセスとして表現している。
それでも、それらは主に人工画像で評価され、自然画像への適応方法はほとんど解明されていない。
本稿では,サリエンシーマップを先行する視覚探索のための統一ベイズモデルを提案する。
眼球運動を記録する自然シーンにおける視覚探索実験により,本モデルを検証した。
現状の正当性モデルでは,視覚検索タスクの最初の2つの修正を予測できるが,その後,その性能は低下する。
これは、塩分マップだけでボトムアップの最初のインプレッションをモデル化できるが、トップダウンタスク情報が重要な場合のスキャンパスを説明するには不十分であることを示唆している。
そこで,ベイズ探索の先駆けとして利用することを提案する。
このアプローチは、人間のスキャンパス全体と非常によく似た行動につながり、固定度とスキャンパスの類似性の関数として見出された標的の割合の両方において、眼球運動の全シーケンスを再現する。
関連論文リスト
- SHIC: Shape-Image Correspondences with no Keypoint Supervision [106.99157362200867]
正準曲面マッピングは、オブジェクトの各ピクセルを3Dテンプレートの対応する点に割り当てることで、キーポイント検出を一般化する。
人間の分析のためにDensePoseによって人気を得た著者は、この概念をより多くのカテゴリに適用しようと試みている。
そこで本研究では,手動による指導を伴わない標準地図学習手法ShiCを紹介し,ほとんどのカテゴリにおいて教師付き手法よりも優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2024-07-26T17:58:59Z) - Semantic-Based Active Perception for Humanoid Visual Tasks with Foveal Sensors [49.99728312519117]
この研究の目的は、最近の意味に基づくアクティブな知覚モデルが、人間が定期的に行う視覚的なタスクをいかに正確に達成できるかを確立することである。
このモデルは、現在のオブジェクト検出器が多数のオブジェクトクラスをローカライズし、分類し、複数の固定にまたがるシーンのセマンティック記述を更新する能力を利用する。
シーン探索の課題では、セマンティック・ベースの手法は従来のサリエンシ・ベース・モデルよりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-04-16T18:15:57Z) - TempSAL -- Uncovering Temporal Information for Deep Saliency Prediction [64.63645677568384]
本稿では,逐次時間間隔でサリエンシマップを出力する新たなサリエンシ予測モデルを提案する。
提案手法は,学習した時間マップを組み合わせることで,サリエンシ予測を局所的に調整する。
私たちのコードはGitHubで公開されます。
論文 参考訳(メタデータ) (2023-01-05T22:10:16Z) - Active Gaze Control for Foveal Scene Exploration [124.11737060344052]
本研究では,葉型カメラを用いた人間とロボットが現場を探索する方法をエミュレートする手法を提案する。
提案手法は,同数の視線シフトに対してF1スコアを2~3ポイント増加させる。
論文 参考訳(メタデータ) (2022-08-24T14:59:28Z) - Glimpse-Attend-and-Explore: Self-Attention for Active Visual Exploration [47.01485765231528]
アクティブな視覚探索は、限られた視野を持つエージェントが部分的な観察に基づいて環境を理解するのを支援することを目的としている。
タスク固有の不確実性マップではなく、自己注意を用いて視覚探索をガイドするGlimpse-Attend-and-Exploreモデルを提案する。
私たちのモデルは、探索を駆動する際のデータセットバイアスに頼らずに、奨励的な結果を提供します。
論文 参考訳(メタデータ) (2021-08-26T11:41:03Z) - SALYPATH: A Deep-Based Architecture for visual attention prediction [5.068678962285629]
視覚的注意は、画像圧縮、認識、キャプションなどの多くのコンピュータビジョンアプリケーションに有用である。
本稿では, 画像の走査パスを, サリエンシモデルの特徴を通して効率的に予測する, いわゆるSALYPATHを提案する。
その考え方は、深いベースモデルの能力を利用してスキャンパスを予測し、サリエンシを予測することである。
論文 参考訳(メタデータ) (2021-06-29T08:53:51Z) - Bayesian Eye Tracking [63.21413628808946]
モデルに基づく視線追跡は、目の特徴検出エラーの影響を受けやすい。
モデルベースアイトラッキングのためのベイズフレームワークを提案する。
提案手法は,最先端のモデルベースおよび学習ベースの手法と比較して,一般化能力の大幅な向上を示す。
論文 参考訳(メタデータ) (2021-06-25T02:08:03Z) - Classifying Eye-Tracking Data Using Saliency Maps [8.524684315458245]
本稿では,視線追跡データの自動的,定量的分類のための視覚情報に基づく特徴抽出手法を提案する。
サリエンシの振幅、類似度、相違点を対応するアイフィクスマップと比較すると、視覚追跡データを識別するために識別的特徴を生成するために有効に活用される情報の余分な次元が得られる。
論文 参考訳(メタデータ) (2020-10-24T15:18:07Z) - Latent World Models For Intrinsically Motivated Exploration [140.21871701134626]
画像に基づく観察のための自己教師付き表現学習法を提案する。
我々は、部分的に観測可能な環境の探索を導くために、エピソードおよび寿命の不確実性を考慮する。
論文 参考訳(メタデータ) (2020-10-05T19:47:04Z) - Predicting Goal-directed Human Attention Using Inverse Reinforcement
Learning [44.774961463015245]
視覚探索においてヒトが使用する報酬関数とポリシーを学習するための最初の逆強化学習モデルを提案する。
IRLモデルをトレーニングし、評価するために、私たちはCOCO-Search18を作成しました。
論文 参考訳(メタデータ) (2020-05-28T21:46:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。