論文の概要: Progressive Multi-resolution Loss for Crowd Counting
- arxiv url: http://arxiv.org/abs/2212.04127v1
- Date: Thu, 8 Dec 2022 07:55:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 15:41:58.624432
- Title: Progressive Multi-resolution Loss for Crowd Counting
- Title(参考訳): 集団カウントのためのプログレッシブ・マルチレゾリューション損失
- Authors: Ziheng Yan, Yuankai Qi, Guorong Li, Xinyan Liu, Weigang Zhang,
Qingming Huang, Ming-Hsuan Yang
- Abstract要約: 一つの解像度で密度マップを推定するが、複数の解像度で密度マップを計測する。
数学的に一分解能L2損失よりも優れていることを証明する。
- 参考スコア(独自算出の注目度): 126.01887803981619
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Crowd counting is usually handled in a density map regression fashion, which
is supervised via a L2 loss between the predicted density map and ground truth.
To effectively regulate models, various improved L2 loss functions have been
proposed to find a better correspondence between predicted density and
annotation positions. In this paper, we propose to predict the density map at
one resolution but measure the density map at multiple resolutions. By
maximizing the posterior probability in such a setting, we obtain a log-formed
multi-resolution L2-difference loss, where the traditional single-resolution L2
loss is its particular case. We mathematically prove it is superior to a
single-resolution L2 loss. Without bells and whistles, the proposed loss
substantially improves several baselines and performs favorably compared to
state-of-the-art methods on four crowd counting datasets, ShanghaiTech A & B,
UCF-QNRF, and JHU-Crowd++.
- Abstract(参考訳): 群衆計数は通常密度マップ回帰方式で行われ、予測された密度マップと地上の真実の間のL2損失によって監督される。
モデルを有効に制御するために, 予測密度とアノテーション位置の対応性を高めるため, 様々な改良されたl2損失関数が提案されている。
本稿では,1つの解像度で密度マップを推定するが,複数の解像度で密度マップを計測する。
このような設定で後続確率を最大化することにより、従来の単分解能L2損失が特定の場合であるログ形式の多分解能L2差分損失が得られる。
数学的には単分解能L2損失よりも優れている。
ベルとホイッスルがなければ、提案された損失はいくつかのベースラインを大幅に改善し、上海技術A&B、UCF-QNRF、JHU-Crowd++の4つのクラウドカウントデータセットの最先端手法と比較して好適に機能する。
関連論文リスト
- HDNet: A Hierarchically Decoupled Network for Crowd Counting [11.530565995318696]
本稿では,階層型分離ネットワーク(HDNet)を提案する。
HDNetは、いくつかの人気のあるカウントベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-12-12T06:01:26Z) - Redesigning Multi-Scale Neural Network for Crowd Counting [68.674652984003]
本稿では, 集団カウントのための多スケール密度マップを階層的にマージする, 密度専門家の階層的混合を導入する。
階層構造の中では、すべてのスケールからの貢献を促進するために、専門家の競争とコラボレーションのスキームが提示されます。
実験の結果,提案手法は5つの公開データセット上での最先端性能を実現することがわかった。
論文 参考訳(メタデータ) (2022-08-04T21:49:29Z) - Rethinking Spatial Invariance of Convolutional Networks for Object
Counting [119.83017534355842]
局所連結ガウス核を用いて元の畳み込みフィルタを置き換え、密度写像の空間位置を推定する。
従来の研究から着想を得て,大規模なガウス畳み込みの近似を好意的に実装するために,翻訳不変性を伴う低ランク近似を提案する。
提案手法は,他の最先端手法を著しく上回り,物体の空間的位置の有望な学習を実現する。
論文 参考訳(メタデータ) (2022-06-10T17:51:25Z) - Unpaired Image Super-Resolution with Optimal Transport Maps [128.1189695209663]
実世界の画像超解像(SR)タスクは、しばしば、教師付き技術の適用を制限するペアデータセットを持っていない。
本稿では,非バイアスのOTマップを知覚輸送コストで学習する未ペアSRのアルゴリズムを提案する。
我々のアルゴリズムは、大規模無人AIM-19データセット上で、最先端のパフォーマンスをほぼ提供する。
論文 参考訳(メタデータ) (2022-02-02T16:21:20Z) - Gradient Variance Loss for Structure-Enhanced Image Super-Resolution [16.971608518924597]
構造強調損失関数(Gradient Variance(GV)損失)を導入し,知覚特性の詳細でテクスチャを生成する。
実験の結果,GV損失は,既存の画像超解像(SR)深層学習モデルにおいて,構造類似度(SSIM)とピーク信号-雑音比(PSNR)の両方を著しく改善できることがわかった。
論文 参考訳(メタデータ) (2022-02-02T12:31:05Z) - Cascaded Residual Density Network for Crowd Counting [63.714719914701014]
本研究では, 群衆数に対する高品質な密度マップを高精度に作成するために, 粗大なアプローチで新しいカスケード残差密度ネットワーク(CRDNet)を提案する。
新たな局所的カウント損失が示され、群衆カウントの精度が向上する。
論文 参考訳(メタデータ) (2021-07-29T03:07:11Z) - Direct Measure Matching for Crowd Counting [59.66286603624411]
そこで本研究では,予測密度マップを散乱点付基底真理に直接回帰する測度に基づく新しい計数手法を提案する。
本稿では, シンクホーンの測位損失を計測するために設計した, 半平衡型のシンクホーン発散を導出する。
論文 参考訳(メタデータ) (2021-07-04T06:37:33Z) - Dual-Resolution Correspondence Networks [20.004691262722265]
本稿では,Dual-Resolution Cor correspondingence Networks (DualRC-Net) を導入し,画素単位の対応を粗い方法で求める。
我々はHPatches、InLoc、Aachen Day-Nightなどの大規模公開ベンチマークで評価を行った。
論文 参考訳(メタデータ) (2020-06-16T00:42:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。