論文の概要: Understanding the impact of mistakes on background regions in crowd
counting
- arxiv url: http://arxiv.org/abs/2003.13759v1
- Date: Mon, 30 Mar 2020 19:16:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 08:14:22.780328
- Title: Understanding the impact of mistakes on background regions in crowd
counting
- Title(参考訳): 群衆数における誤りが背景領域に与える影響の理解
- Authors: Davide Modolo, Bing Shuai, Rahul Rama Varior, Joseph Tighe
- Abstract要約: 一般的な集団カウント手法による誤りの回数を定量化する。
i) 背景の誤りは重大であり, 総誤差の18~49%を負っていることを示す。
我々は、背景予測を抑えるために訓練されたセグメンテーションブランチを持つ典型的な群集カウントネットワークを豊かにしている。
- 参考スコア(独自算出の注目度): 22.2792472922016
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Every crowd counting researcher has likely observed their model output wrong
positive predictions on image regions not containing any person. But how often
do these mistakes happen? Are our models negatively affected by this? In this
paper we analyze this problem in depth. In order to understand its magnitude,
we present an extensive analysis on five of the most important crowd counting
datasets. We present this analysis in two parts. First, we quantify the number
of mistakes made by popular crowd counting approaches. Our results show that
(i) mistakes on background are substantial and they are responsible for 18-49%
of the total error, (ii) models do not generalize well to different kinds of
backgrounds and perform poorly on completely background images, and (iii)
models make many more mistakes than those captured by the standard Mean
Absolute Error (MAE) metric, as counting on background compensates considerably
for misses on foreground. And second, we quantify the performance change gained
by helping the model better deal with this problem. We enrich a typical crowd
counting network with a segmentation branch trained to suppress background
predictions. This simple addition (i) reduces background error by 10-83%, (ii)
reduces foreground error by up to 26% and (iii) improves overall crowd counting
performance up to 20%. When compared against the literature, this simple
technique achieves very competitive results on all datasets, on par with the
state-of-the-art, showing the importance of tackling the background problem.
- Abstract(参考訳): すべての群衆計数研究者は、そのモデルが人物を含まない画像領域で誤ったポジティブな予測を出力するのを観測した可能性が高い。
しかし、どれくらいの頻度でミスが起こるのか?
私たちのモデルは、この影響を受けますか?
本稿では,この問題を深く分析する。
その規模を理解するために、最も重要な群集カウントデータセットの5つについて広範な分析を行う。
この分析は2つにまとめる。
まず、人気のある群衆カウントアプローチによる間違いの数を定量化する。
私たちの結果は
(i)背景上の誤りは相当で、全体のエラーの18~49%に責任がある。
(ii)モデルは、異なる背景によく一般化せず、完全な背景画像では性能が劣る。
(iii)標準平均絶対誤差(mae)測定値よりも多くの誤りを犯すモデルがある。
第二に、モデルがこの問題をよりうまく対処できるようにすることで得られるパフォーマンスの変化を定量化します。
背景予測を抑圧するセグメンテーションブランチをトレーニングした,一般的な群衆カウントネットワークを充実させる。
この簡単な追加
(i)背景誤差を10~83%削減する。
(ii)前景誤差を最大26%削減し、
(iii) 観客数全体のパフォーマンスを最大20%向上させる。
文献と比較すると、この単純な手法はすべてのデータセットに対して、最先端技術と同等の非常に競争力のある結果をもたらし、背景問題に取り組むことの重要性を示している。
関連論文リスト
- Automated Classification of Model Errors on ImageNet [7.455546102930913]
モデル選択がエラー分布にどのように影響するかを研究するための自動エラー分類フレームワークを提案する。
我々は、900以上のモデルのエラー分布を網羅的に評価するために、我々のフレームワークを使用します。
特に、重大エラーの一部は、モデルの性能を過小評価しているにもかかわらず、重要なパフォーマンス指標であることを示すトップ1の精度で大幅に低下する。
論文 参考訳(メタデータ) (2023-11-13T20:41:39Z) - Generalized Logit Adjustment: Calibrating Fine-tuned Models by Removing Label Bias in Foundation Models [75.9543301303586]
CLIPのようなファンデーションモデルは、追加のトレーニングデータなしで、さまざまなタスクでゼロショット転送を可能にする。
微調整やアンサンブルも一般的に下流のタスクに合うように採用されている。
しかし、先行研究は基礎モデルに固有のバイアスを見落としていると論じる。
論文 参考訳(メタデータ) (2023-10-12T08:01:11Z) - Crowd Density Estimation using Imperfect Labels [3.2575001434344286]
深層学習モデル(アノテータ)を用いて不完全ラベルを自動的に生成するシステムを提案する。
提案手法は,2つのクラウドカウントモデルと2つのベンチマークデータセットを用いて解析した結果,完全ラベルで訓練したモデルに近い精度が得られることがわかった。
論文 参考訳(メタデータ) (2022-12-02T21:21:40Z) - Crowd counting with crowd attention convolutional neural network [23.96936386014949]
我々は、CAT-CNN(Crowd Attention Convolutional Neural Network)と呼ばれる新しいエンドツーエンドモデルを提案する。
我々のCAT-CNNは、自動的に信頼マップを符号化することで、各画素位置における人間の頭の重要性を適応的に評価することができる。
信頼マップの誘導により、推定密度マップにおける人頭の位置がより注目され、最終的な密度マップを符号化することで、膨大な誤判断を効果的に回避することができる。
論文 参考訳(メタデータ) (2022-04-15T06:51:58Z) - Unravelling the Effect of Image Distortions for Biased Prediction of
Pre-trained Face Recognition Models [86.79402670904338]
画像歪みの存在下での4つの最先端深層顔認識モデルの性能評価を行った。
我々は、画像歪みが、異なるサブグループ間でのモデルの性能ギャップと関係していることを観察した。
論文 参考訳(メタデータ) (2021-08-14T16:49:05Z) - Distribution Matching for Crowd Counting [51.90971145453012]
アノテーションにガウスを付与することは一般化性能を損なうことを示す。
我々は,群集CoUNTing (DM-Count) における分布マッチングの利用を提案する。
平均絶対誤差(Mean Absolute Error)の観点では、DM-Countは従来の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2020-09-28T04:57:23Z) - Completely Self-Supervised Crowd Counting via Distribution Matching [92.09218454377395]
我々は,密集した群集数に対するトレーニングモデルに対する完全な自己超越的アプローチを提案する。
トレーニングに必要な入力は、大量の未ラベルの群衆画像以外は、群衆数に近似した上限である。
提案手法は,自然群集が逆伝播の誤り信号を生成するために利用可能な電力法分布に従うという考え方に富む。
論文 参考訳(メタデータ) (2020-09-14T13:20:12Z) - Deep F-measure Maximization for End-to-End Speech Understanding [52.36496114728355]
本稿では,F測度に対する微分可能な近似法を提案し,標準バックプロパゲーションを用いてネットワークをトレーニングする。
我々は、アダルト、コミュニティ、犯罪の2つの標準フェアネスデータセットの実験を行い、ATISデータセットの音声・インテリジェンス検出と音声・COCOデータセットの音声・イメージ概念分類を行った。
これらの4つのタスクのすべてにおいて、F測定は、クロスエントロピー損失関数で訓練されたモデルと比較して、最大8%の絶対的な絶対的な改善を含む、マイクロF1スコアの改善をもたらす。
論文 参考訳(メタデータ) (2020-08-08T03:02:27Z) - TACRED Revisited: A Thorough Evaluation of the TACRED Relation
Extraction Task [80.38130122127882]
TACREDはリレーショナル抽出(RE)において最も大きく、最も広く使われているクラウドソースデータセットの1つである
パフォーマンスの天井に到達したのか、改善の余地はあるのか?
ラベルエラーは絶対F1テストエラーの8%を占めており、例の50%以上を可逆化する必要がある。
論文 参考訳(メタデータ) (2020-04-30T15:07:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。