論文の概要: A Study of Human Gaze Behavior During Visual Crowd Counting
- arxiv url: http://arxiv.org/abs/2009.06502v2
- Date: Sun, 27 Sep 2020 19:47:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 12:33:20.198920
- Title: A Study of Human Gaze Behavior During Visual Crowd Counting
- Title(参考訳): 視覚群数における人間の視線行動に関する研究
- Authors: Raji Annadi, Yupei Chen, Viresh Ranjan, Dimitris Samaras, Gregory
Zelinsky, Minh Hoai
- Abstract要約: 視線追跡装置を用いて,群集画像中の人物数をカウントする作業を行う被験者の視線行動を収集した。
視覚的カウントのための一般的なアプローチをいくつか観察する。
カウント精度の面では、現在の最先端のコンピュータアルゴリズムと比較して、人間の参加者はカウントタスクが得意ではない。
- 参考スコア(独自算出の注目度): 40.59955546629333
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we describe our study on how humans allocate their attention
during visual crowd counting. Using an eye tracker, we collect gaze behavior of
human participants who are tasked with counting the number of people in crowd
images. Analyzing the collected gaze behavior of ten human participants on
thirty crowd images, we observe some common approaches for visual counting. For
an image of a small crowd, the approach is to enumerate over all people or
groups of people in the crowd, and this explains the high level of similarity
between the fixation density maps of different human participants. For an image
of a large crowd, our participants tend to focus on one section of the image,
count the number of people in that section, and then extrapolate to the other
sections. In terms of count accuracy, our human participants are not as good at
the counting task, compared to the performance of the current state-of-the-art
computer algorithms. Interestingly, there is a tendency to under count the
number of people in all crowd images. Gaze behavior data and images can be
downloaded from
https://www3.cs.stonybrook.edu/~minhhoai/projects/crowd_counting_gaze/.
- Abstract(参考訳): 本稿では,視覚的群集カウント中に人間がどのように注意を割り当てるかについて述べる。
視線追跡装置を用いて、群集画像中の人の数をカウントする作業を行う人間の視線行動を収集した。
30枚の群集画像から10人の被験者の視線行動を分析し,視覚的計数に共通するアプローチを考察した。
小さな群衆のイメージの場合、このアプローチは、群衆の中のすべての人やグループを列挙することであり、これは、異なる人間の参加者の固定密度マップと高いレベルの類似性を説明する。
大群衆のイメージでは、参加者はイメージの1つのセクションに集中し、そのセクション内の人の数を数え、他のセクションに外挿する傾向があります。
計算精度の面では、現在の最先端のコンピュータアルゴリズムのパフォーマンスと比べて、人間の被験者は計算タスクが得意ではない。
興味深いことに、群衆画像に写っている人の数をカウントする傾向がある。
gazeの動作データと画像はhttps://www3.cs.stonybrook.edu/~minhhoai/projects/crowd_counting_gaze/からダウンロードできる。
関連論文リスト
- Evaluating Multiview Object Consistency in Humans and Image Models [68.36073530804296]
我々は、物体の形状に関するゼロショット視覚的推論を必要とする認知科学の実験的設計を活用する。
我々は500人以上の参加者から行動データの35万件の試行を収集した。
次に、一般的な視覚モデルの性能を評価する。
論文 参考訳(メタデータ) (2024-09-09T17:59:13Z) - Do humans and Convolutional Neural Networks attend to similar areas
during scene classification: Effects of task and image type [0.0]
本研究では,人間とCNNの類似性を調節するために,人間の注意マップを抽出するタスクが画像特性とどのように相互作用するかを検討した。
分類対象のタイプは, 特異な, 健全なオブジェクト, オブジェクト配置からなる屋内シーン, あるいは, カテゴリーを定義していないランドスケープのいずれかを用いて変化した。
対象物に対して、人間の手動選択は、CNNと最もよく似た地図を作成し、特定の眼球運動タスクは、ほとんど影響を与えなかった。
論文 参考訳(メタデータ) (2023-07-25T09:02:29Z) - Region-Aware Network: Model Human's Top-Down Visual Perception Mechanism
for Crowd Counting [33.09330894823192]
背景雑音とスケール変動は、群集数で長年認識されてきた一般的な問題である。
本研究では,人間のトップダウン視覚知覚機構をモデル化し,RANetと呼ばれる領域認識ブロックを用いた新しいフィードバックネットワークを提案する。
提案手法は,いくつかの公開データセットにおいて,最先端の群集カウント法より優れる。
論文 参考訳(メタデータ) (2021-06-23T05:11:58Z) - Gaze Perception in Humans and CNN-Based Model [66.89451296340809]
cnn(convolutional neural network)ベースの視線モデルと,実世界の映像における注意の軌跡を人間がどのように推定するかを比較した。
モデルと比較すると,注目点の人間推定はシーンの文脈に強く影響していることが示される。
論文 参考訳(メタデータ) (2021-04-17T04:52:46Z) - Counting People by Estimating People Flows [135.85747920798897]
我々は、直接回帰するのではなく、連続した画像間の画像位置を流れる人々のフローを推定することを提唱する。
より複雑なアーキテクチャを必要とすることなく、パフォーマンスを大幅に向上します。
また,空間的制約と時間的制約を両立させることで,深い群集数モデルの訓練を可能にすることを示す。
論文 参考訳(メタデータ) (2020-12-01T12:59:24Z) - Fine-Grained Crowd Counting [59.63412475367119]
現在の群衆カウントアルゴリズムは、画像内の人の数にのみ関係している。
本研究では,各個体の低レベル行動特性に基づいて,群集をカテゴリに分類する,きめ細かい群集カウントを提案する。
論文 参考訳(メタデータ) (2020-07-13T01:31:12Z) - Shallow Feature Based Dense Attention Network for Crowd Counting [103.67446852449551]
静止画像から群衆を数えるためのShallow機能に基づくDense Attention Network (SDANet)を提案する。
提案手法は,SDANetの11.9%の平均絶対誤差(MAE)低下から明らかなように,既存の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2020-06-17T13:34:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。