論文の概要: Benchmarking human visual search computational models in natural scenes:
models comparison and reference datasets
- arxiv url: http://arxiv.org/abs/2112.05808v1
- Date: Fri, 10 Dec 2021 19:56:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-14 15:11:14.625899
- Title: Benchmarking human visual search computational models in natural scenes:
models comparison and reference datasets
- Title(参考訳): 自然場面における人間の視覚探索計算モデルのベンチマーク:モデル比較と参照データセット
- Authors: F. Travi (1), G. Ruarte (1), G. Bujia (1) and J. E. Kamienkowski (1,2)
((1) Laboratorio de Inteligencia Artificial Aplicada, Instituto de Ciencias
de la Computaci\'on, Universidad de Buenos Aires - CONICET (2) Maestr\'ia de
Explotaci\'on de Datos y Descubrimiento del Conocimiento, Universidad de
Buenos Aires, Argentina)
- Abstract要約: 我々は、自然の場面で利用可能な最先端のビジュアル検索モデルを選択し、異なるデータセットで評価する。
本稿では,ニューラルネットワークに基づくビジュアルサーチモデルと組み合わせて,理想ベイズ探索法の改良を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Visual search is an essential part of almost any everyday human goal-directed
interaction with the environment. Nowadays, several algorithms are able to
predict gaze positions during simple observation, but few models attempt to
simulate human behavior during visual search in natural scenes. Furthermore,
these models vary widely in their design and exhibit differences in the
datasets and metrics with which they were evaluated. Thus, there is a need for
a reference point, on which each model can be tested and from where potential
improvements can be derived. In the present work, we select publicly available
state-of-the-art visual search models in natural scenes and evaluate them on
different datasets, employing the same metrics to estimate their efficiency and
similarity with human subjects. In particular, we propose an improvement to the
Ideal Bayesian Searcher through a combination with a neural network-based
visual search model, enabling it to generalize to other datasets. The present
work sheds light on the limitations of current models and how potential
improvements can be accomplished by combining approaches. Moreover, it moves
forward on providing a solution for the urgent need for benchmarking data and
metrics to support the development of more general human visual search
computational models.
- Abstract(参考訳): 視覚検索は、毎日の人間の目標と環境との対話において不可欠な部分である。
現在、いくつかのアルゴリズムは単純な観察中に視線位置を予測できるが、自然場面の視覚探索中に人間の行動をシミュレートしようとするモデルはほとんどない。
さらに、これらのモデルは設計において大きく異なり、評価されたデータセットとメトリクスの違いを示す。
したがって、各モデルをテストするための参照点と、潜在的な改善が導出できる場所が必要である。
本研究では,自然場面で利用可能な最先端のビジュアル検索モデルを選択し,異なるデータセット上で評価し,同じ指標を用いて被験者との効率と類似度を推定する。
特に、ニューラルネットワークに基づくビジュアルサーチモデルと組み合わせることで、Ideal Bayesian Searcherの改善を提案し、他のデータセットへの一般化を可能にした。
この研究は、現在のモデルの限界と、アプローチを組み合わせることで潜在的な改善が達成される可能性に光を当てている。
さらに、より一般的なビジュアル検索計算モデルの開発を支援するために、データとメトリクスをベンチマークする緊急必要なソリューションの提供も進めている。
関連論文リスト
- Has Your Pretrained Model Improved? A Multi-head Posterior Based
Approach [25.927323251675386]
我々は、世界的知識の源として各エンティティに関連するメタ機能を活用し、モデルからエンティティ表現を採用する。
本稿では,これらの表現とメタ機能との整合性を,事前学習モデルの評価指標として用いることを提案する。
提案手法の有効性は,関係データセットを用いたモデル,大規模言語モデル,画像モデルなど,様々な領域で実証されている。
論文 参考訳(メタデータ) (2024-01-02T17:08:26Z) - UniAR: Unifying Human Attention and Response Prediction on Visual
Content [12.281060227170792]
UniAR - 異なるタイプの視覚コンテンツにわたって暗黙的および明示的な人間の振る舞いを予測する統一モデル。
自然画像、Webページ、グラフィックデザインにまたがるさまざまなパブリックデータセットに基づいて、UniARをトレーニングします。
論文 参考訳(メタデータ) (2023-12-15T19:57:07Z) - Sequential Modeling Enables Scalable Learning for Large Vision Models [120.91839619284431]
本稿では,言語データを用いずにLVM(Large Vision Model)を学習できる新しい逐次モデリング手法を提案する。
我々は、生画像やビデオや注釈付きデータソースを表現できる共通フォーマット「視覚文」を定義した。
論文 参考訳(メタデータ) (2023-12-01T18:59:57Z) - StableLLaVA: Enhanced Visual Instruction Tuning with Synthesized
Image-Dialogue Data [129.92449761766025]
本稿では,視覚的インストラクションチューニングのための画像と対話を同期的に合成する新しいデータ収集手法を提案する。
このアプローチは生成モデルのパワーを活用し、ChatGPTとテキスト・ツー・イメージ生成モデルの能力とを結合する。
本研究は,各種データセットを対象とした総合的な実験を含む。
論文 参考訳(メタデータ) (2023-08-20T12:43:52Z) - Revisiting the Evaluation of Image Synthesis with GANs [55.72247435112475]
本研究では, 合成性能の評価に関する実証的研究を行い, 生成モデルの代表としてGAN(Generative Adversarial Network)を用いた。
特に、表現空間におけるデータポイントの表現方法、選択したサンプルを用いた公平距離の計算方法、各集合から使用可能なインスタンス数など、さまざまな要素の詳細な分析を行う。
論文 参考訳(メタデータ) (2023-04-04T17:54:32Z) - Ambiguous Images With Human Judgments for Robust Visual Event
Classification [34.62731821199598]
我々はあいまいな画像のデータセットを作成し、それらをビデオから抽出したノイズの多い画像の集合であるSQUID-E(Squidy)を作成する。
すべての画像は、地上の真理値でアノテートされ、テストセットは、人間の不確実性判定でアノテートされる。
このデータセットを用いて、視覚タスクにおける人間の不確実性を特徴づけ、既存の視覚事象分類モデルを評価する。
論文 参考訳(メタデータ) (2022-10-06T17:52:20Z) - Inter-model Interpretability: Self-supervised Models as a Case Study [0.2578242050187029]
テキスト・インター・モデル・インタプリタビリティを導入するためのDissectと呼ばれる最近の解釈可能性技術を構築した。
我々は、学習概念の観点から、モデル間の近さを明らかにする学習概念埋め込み空間に、トップパフォーマンスの自己教師型モデル13を投影する。
この実験により、モデルを3つのカテゴリに分類し、異なるタスクが必要とする視覚概念の種類を初めて明らかにしました。
論文 参考訳(メタデータ) (2022-07-24T22:50:18Z) - A Graph-Enhanced Click Model for Web Search [67.27218481132185]
ウェブ検索のための新しいグラフ強調クリックモデル(GraphCM)を提案する。
セッション内情報とセッション間情報の両方を、スパーシリティ問題とコールドスタート問題に活用する。
論文 参考訳(メタデータ) (2022-06-17T08:32:43Z) - Diversity vs. Recognizability: Human-like generalization in one-shot
generative models [5.964436882344729]
サンプル認識可能性と多様性の2つの軸に沿った1ショット生成モデルを評価するための新しい枠組みを提案する。
まず、GANのようなモデルとVAEのようなモデルが多様性認識性空間の反対側にあることを示す。
対照的に、非絡み合いは、認識可能性の最大化に使用できるパラボラ曲線に沿ってモデルを輸送する。
論文 参考訳(メタデータ) (2022-05-20T13:17:08Z) - Visual Distant Supervision for Scene Graph Generation [66.10579690929623]
シーングラフモデルは通常、大量のラベル付きデータを人間のアノテーションで教師付き学習する必要がある。
本研究では,人間ラベルデータを用いずにシーングラフモデルを訓練できる視覚関係学習の新しいパラダイムである視覚遠方監視を提案する。
包括的な実験結果から、我々の遠隔監視モデルは、弱い監督と半監督のベースラインよりも優れています。
論文 参考訳(メタデータ) (2021-03-29T06:35:24Z) - CONSAC: Robust Multi-Model Fitting by Conditional Sample Consensus [62.86856923633923]
我々は,同じ形状の複数のパラメトリックモデルを雑音測定に適合させる頑健な推定器を提案する。
複数のモデル検出のための手作り検索戦略を利用する従来の研究とは対照的に,データから検索戦略を学習する。
探索の自己教師付き学習において,提案したアルゴリズムをマルチホログラフィー推定で評価し,最先端手法よりも優れた精度を示す。
論文 参考訳(メタデータ) (2020-01-08T17:37:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。