論文の概要: CNN-based Density Estimation and Crowd Counting: A Survey
- arxiv url: http://arxiv.org/abs/2003.12783v1
- Date: Sat, 28 Mar 2020 13:17:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 23:57:06.614198
- Title: CNN-based Density Estimation and Crowd Counting: A Survey
- Title(参考訳): CNNによる人口密度推定と集団数:調査
- Authors: Guangshuai Gao, Junyu Gao, Qingjie Liu, Qi Wang, Yunhong Wang
- Abstract要約: 本稿では,主にCNNに基づく密度マップ推定法において,群集数モデルについて包括的に検討する。
評価指標から, 観客数データセットで上位3人のパフォーマーを選択した。
我々は、今後のクラウドカウントの展開について、合理的な推測と予測を行うことを期待する。
- 参考スコア(独自算出の注目度): 65.06491415951193
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurately estimating the number of objects in a single image is a
challenging yet meaningful task and has been applied in many applications such
as urban planning and public safety. In the various object counting tasks,
crowd counting is particularly prominent due to its specific significance to
social security and development. Fortunately, the development of the techniques
for crowd counting can be generalized to other related fields such as vehicle
counting and environment survey, if without taking their characteristics into
account. Therefore, many researchers are devoting to crowd counting, and many
excellent works of literature and works have spurted out. In these works, they
are must be helpful for the development of crowd counting. However, the
question we should consider is why they are effective for this task. Limited by
the cost of time and energy, we cannot analyze all the algorithms. In this
paper, we have surveyed over 220 works to comprehensively and systematically
study the crowd counting models, mainly CNN-based density map estimation
methods. Finally, according to the evaluation metrics, we select the top three
performers on their crowd counting datasets and analyze their merits and
drawbacks. Through our analysis, we expect to make reasonable inference and
prediction for the future development of crowd counting, and meanwhile, it can
also provide feasible solutions for the problem of object counting in other
fields. We provide the density maps and prediction results of some mainstream
algorithm in the validation set of NWPU dataset for comparison and testing.
Meanwhile, density map generation and evaluation tools are also provided. All
the codes and evaluation results are made publicly available at
https://github.com/gaoguangshuai/survey-for-crowd-counting.
- Abstract(参考訳): 単一画像中のオブジェクト数を正確に推定することは難しいが有意義な作業であり、都市計画や公共安全など多くの用途に応用されている。
様々なオブジェクトカウントタスクにおいて、群衆カウントは特に社会保障と開発に特別な重要性があるため顕著である。
幸運なことに、群衆カウント技術の開発は、その特性を考慮せずに、車計数や環境調査などの他の関連分野に一般化することができる。
そのため、多くの研究者が群衆の数え上げに熱心であり、多くの優れた文学作品や作品が盛り上がっている。
これらの作品では、彼らは群衆の数え上げの発展に役立ちます。
しかし、我々が考慮すべき問題は、なぜこのタスクに効果があるのかである。
時間とエネルギーのコストによって制限されるため、すべてのアルゴリズムを解析することはできない。
本稿では,主にCNNに基づく密度マップ推定手法である群集数モデルについて,包括的かつ体系的に研究する220以上の研究を調査した。
最後に,評価指標により,群集計数データセット上で上位3人のパフォーマーを選択し,そのメリットと欠点を分析した。
分析により,群衆カウントの今後の発展に対する合理的な推測と予測が期待できる一方で,他の分野における対象カウント問題に対する実現可能な解決策を提供することができる。
我々は,NWPUデータセットの検証セットにおいて,いくつかの主流アルゴリズムの密度マップと予測結果を提供する。
一方、密度マップの生成と評価ツールも提供される。
すべてのコードと評価結果は、https://github.com/gaoguangshuai/survey-for-crowd-countingで公開されている。
関連論文リスト
- A Robust Bi-Directional Algorithm For People Count In Crowded Areas [0.0]
本稿では,Blobアセスメントを中心にした人物カウントアルゴリズムを提案する。
この作業の中核となる前提は、特定の領域に関連する人々の流入と流出の数を複雑にすることだ。
論文 参考訳(メタデータ) (2023-11-06T18:18:26Z) - Revisiting Crowd Counting: State-of-the-art, Trends, and Future
Perspectives [3.2575001434344286]
群衆カウントは公共の場での状況認識に有効なツールである。
最先端の性能を達成するためのディープラーニング手法が開発されている。
論文 参考訳(メタデータ) (2022-09-14T08:51:02Z) - Crowd counting with crowd attention convolutional neural network [23.96936386014949]
我々は、CAT-CNN(Crowd Attention Convolutional Neural Network)と呼ばれる新しいエンドツーエンドモデルを提案する。
我々のCAT-CNNは、自動的に信頼マップを符号化することで、各画素位置における人間の頭の重要性を適応的に評価することができる。
信頼マップの誘導により、推定密度マップにおける人頭の位置がより注目され、最終的な密度マップを符号化することで、膨大な誤判断を効果的に回避することができる。
論文 参考訳(メタデータ) (2022-04-15T06:51:58Z) - LDC-Net: A Unified Framework for Localization, Detection and Counting in
Dense Crowds [103.8635206945196]
視覚的群集分析の急速な発展は、単に密度マップを要約するのではなく、位置決めや検出によって人を数える傾向を示している。
群集の局所化と検出に関する最近の研究には,1) 群集を扱えない典型的な検出法と,大規模に変化する群集を扱えないこと,2) 密度マップ法は,特に高密度群集や大規模群集において,位置とボックスの予測における性能不足に悩まされていること,の2つの制限がある。
論文 参考訳(メタデータ) (2021-10-10T07:55:44Z) - Wisdom of (Binned) Crowds: A Bayesian Stratification Paradigm for Crowd
Counting [16.09823718637455]
本研究は,ストラタレベルの標準データセットとアグリゲーション単位での群集カウント手法の性能を解析する。
我々の貢献は、群衆カウントの手法における、微妙な、統計的にバランスのとれた、きめ細かな性能評価を表現している。
論文 参考訳(メタデータ) (2021-08-19T16:50:31Z) - PSCNet: Pyramidal Scale and Global Context Guided Network for Crowd
Counting [44.306790250158954]
本稿では,ピラミッドスケールモジュール (PSM) とグローバルコンテキストモジュール (GCM) に基づく新しい群集カウント手法を提案する。
PSMは、異なる画像スケールの群衆の境界を識別できる多スケール情報を適応的にキャプチャするために使用される。
GCMは、機能マップのチャネル全体のインタラクティブな情報をより効率的にするために、低複雑さと軽量な方法で考案されています。
論文 参考訳(メタデータ) (2020-12-07T11:35:56Z) - Counting from Sky: A Large-scale Dataset for Remote Sensing Object
Counting and A Benchmark Method [52.182698295053264]
リモートセンシング画像から高密度物体をカウントすることに興味がある。自然界における物体のカウントと比較すると、このタスクは、大規模変動、複雑な乱れ背景、配向仲裁といった要因において困難である。
これらの課題に対処するために,我々はまず,4つの重要な地理的対象を含むリモートセンシング画像を用いた大規模オブジェクトカウントデータセットを構築した。
次に、入力画像の密度マップを生成する新しいニューラルネットワークを設計することで、データセットをベンチマークする。
論文 参考訳(メタデータ) (2020-08-28T03:47:49Z) - Semi-Supervised Crowd Counting via Self-Training on Surrogate Tasks [50.78037828213118]
本稿では,機能学習の観点から,半教師付き群集カウント問題に取り組む。
本稿では,2つの革新的なコンポーネント上に構築された,新しい半教師付き群集カウント手法を提案する。
論文 参考訳(メタデータ) (2020-07-07T05:30:53Z) - JHU-CROWD++: Large-Scale Crowd Counting Dataset and A Benchmark Method [92.15895515035795]
我々は、"4,372"イメージと"1.51万"アノテーションを含む、新しい大規模非制約クラウドカウントデータセット(JHU-CROWD++)を導入する。
本稿では, 残差誤差推定により, 群集密度マップを段階的に生成する新しい群集カウントネットワークを提案する。
論文 参考訳(メタデータ) (2020-04-07T14:59:35Z) - NWPU-Crowd: A Large-Scale Benchmark for Crowd Counting and Localization [101.13851473792334]
我々は,5,109枚の画像からなる大規模集束群集NWPU-Crowdを構築し,合計2,133,375個の点と箱を付加したアノテートヘッドを構築した。
他の実世界のデータセットと比較すると、様々な照明シーンを含み、最大密度範囲 (020,033) を持つ。
本稿では,データ特性について述べるとともに,主要なSOTA(State-of-the-art)手法の性能を評価し,新たなデータに生じる問題を分析する。
論文 参考訳(メタデータ) (2020-01-10T09:26:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。