論文の概要: Shallow Feature Based Dense Attention Network for Crowd Counting
- arxiv url: http://arxiv.org/abs/2006.09853v1
- Date: Wed, 17 Jun 2020 13:34:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 21:02:22.653517
- Title: Shallow Feature Based Dense Attention Network for Crowd Counting
- Title(参考訳): 群集カウントのための浅層特徴量に基づくDense Attention Network
- Authors: Yunqi Miao, Zijia Lin, Guiguang Ding, Jungong Han
- Abstract要約: 静止画像から群衆を数えるためのShallow機能に基づくDense Attention Network (SDANet)を提案する。
提案手法は,SDANetの11.9%の平均絶対誤差(MAE)低下から明らかなように,既存の手法よりも大きなマージンで優れている。
- 参考スコア(独自算出の注目度): 103.67446852449551
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While the performance of crowd counting via deep learning has been improved
dramatically in the recent years, it remains an ingrained problem due to
cluttered backgrounds and varying scales of people within an image. In this
paper, we propose a Shallow feature based Dense Attention Network (SDANet) for
crowd counting from still images, which diminishes the impact of backgrounds
via involving a shallow feature based attention model, and meanwhile, captures
multi-scale information via densely connecting hierarchical image features.
Specifically, inspired by the observation that backgrounds and human crowds
generally have noticeably different responses in shallow features, we decide to
build our attention model upon shallow-feature maps, which results in accurate
background-pixel detection. Moreover, considering that the most representative
features of people across different scales can appear in different layers of a
feature extraction network, to better keep them all, we propose to densely
connect hierarchical image features of different layers and subsequently encode
them for estimating crowd density. Experimental results on three benchmark
datasets clearly demonstrate the superiority of SDANet when dealing with
different scenarios. Particularly, on the challenging UCF CC 50 dataset, our
method outperforms other existing methods by a large margin, as is evident from
a remarkable 11.9% Mean Absolute Error (MAE) drop of our SDANet.
- Abstract(参考訳): 近年, 深層学習による群集カウントのパフォーマンスは劇的に改善されているが, 背景が散らばり, 人物の規模が変化するなど, 微妙な問題となっている。
そこで本稿では,Shallow Feature based Dense Attention Network (SDANet) を提案する。これは,浅層特徴に基づく注目モデルを含むことによって,背景の影響を低減し,また階層的特徴を密結合することで,マルチスケール情報をキャプチャする。
具体的には、背景とヒトの群集は、一般的に浅い特徴において顕著に異なる応答を持つという観察から着想を得て、浅い特徴マップに基づいて注意モデルを構築し、正確な背景画素検出を行う。
さらに,異なるスケールの人々の代表的特徴が,特徴抽出ネットワークの異なる層に現れることを考慮し,それらをより良く保持するために,異なる階層の階層的画像特徴を密結合し,その後,群衆密度を推定するための符号化を提案する。
3つのベンチマークデータセットの実験結果は、異なるシナリオを扱う際のSDANetの優位性を明確に示している。
特に、挑戦的なUCF CC 50データセットでは、SDANetの11.9%の平均絶対誤差(MAE)低下から明らかなように、我々の手法は他の既存の手法よりも大きなマージンで優れている。
関連論文リスト
- Multi-scale Unified Network for Image Classification [33.560003528712414]
CNNは、実世界のマルチスケール画像入力を扱う際に、性能と計算効率において顕著な課題に直面している。
本稿では,マルチスケール,統一ネットワーク,スケール不変制約からなるMultiscale Unified Network(MUSN)を提案する。
MUSNは精度が44.53%向上し、マルチスケールシナリオではFLOPを7.01-16.13%減少させる。
論文 参考訳(メタデータ) (2024-03-27T06:40:26Z) - Two Approaches to Supervised Image Segmentation [55.616364225463066]
本研究は、深層学習とマルチセットニューロンのアプローチの比較実験を開発する。
ディープラーニングアプローチは、画像セグメンテーションの実行の可能性を確認した。
代替のマルチセット手法では、計算資源をほとんど必要とせずに精度を向上することができた。
論文 参考訳(メタデータ) (2023-07-19T16:42:52Z) - CLAD: A Contrastive Learning based Approach for Background Debiasing [43.0296255565593]
我々は,CNNにおける背景バイアスを軽減するために,対照的な学習に基づくアプローチを導入する。
前回のベンチマークを4.1%で上回り、バックグラウンドチャレンジデータセットで最先端の結果を得た。
論文 参考訳(メタデータ) (2022-10-06T08:33:23Z) - Crowd counting with segmentation attention convolutional neural network [20.315829094519128]
我々はSegCrowdNetと呼ばれる新しい畳み込みニューラルネットワークアーキテクチャを提案する。
SegCrowdNetは人間の頭領域を適応的に強調し、セグメント化によって非頭領域を抑圧する。
SegCrowdNetは最先端のメソッドと比較して優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-04-15T08:40:38Z) - PGGANet: Pose Guided Graph Attention Network for Person
Re-identification [0.0]
人物再識別(ReID)は、異なるカメラで撮影された画像から人物を回収することを目的としている。
局所的な特徴と人像のグローバルな特徴を併用することで、人物の検索に堅牢な特徴表現を与えることができることが証明されている。
本研究では,ポーズガイド付きグラフアテンションネットワーク,グローバル機能のための1つのブランチ,中粒体機能のための1つのブランチ,粒状キーポイント機能のための1つのブランチからなるマルチブランチアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-11-29T09:47:39Z) - Bayesian Multi Scale Neural Network for Crowd Counting [0.0]
本稿では,ResNetベースの特徴抽出器,拡張畳み込みを用いたダウンサンプリングブロック,変換畳み込みを用いたアップサンプリングブロックを用いた新しいネットワークを提案する。
本稿では,視点視点問題に対してネットワークを堅牢化する新しいアグリゲーションモジュールを提案する。
論文 参考訳(メタデータ) (2020-07-11T21:43:20Z) - Focus Longer to See Better:Recursively Refined Attention for
Fine-Grained Image Classification [148.4492675737644]
Deep Neural Networkは、粗い粒度の画像分類タスクにおいて大きな進歩を見せている。
本稿では,これらの限界差に着目して,より代表的な特徴を抽出する。
我々のネットワークは、画像の一部に繰り返し焦点を合わせ、クラス間の小さな識別的部分を見つける。
論文 参考訳(メタデータ) (2020-05-22T03:14:18Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z) - JHU-CROWD++: Large-Scale Crowd Counting Dataset and A Benchmark Method [92.15895515035795]
我々は、"4,372"イメージと"1.51万"アノテーションを含む、新しい大規模非制約クラウドカウントデータセット(JHU-CROWD++)を導入する。
本稿では, 残差誤差推定により, 群集密度マップを段階的に生成する新しい群集カウントネットワークを提案する。
論文 参考訳(メタデータ) (2020-04-07T14:59:35Z) - Learning Enriched Features for Real Image Restoration and Enhancement [166.17296369600774]
畳み込みニューラルネットワーク(CNN)は、画像復元作業における従来のアプローチよりも劇的に改善されている。
ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とした,新しいアーキテクチャを提案する。
提案手法は,高解像度の空間的詳細を同時に保存しながら,複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
論文 参考訳(メタデータ) (2020-03-15T11:04:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。