論文の概要: Weighing Counts: Sequential Crowd Counting by Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2007.08260v1
- Date: Thu, 16 Jul 2020 11:16:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 23:25:11.528853
- Title: Weighing Counts: Sequential Crowd Counting by Reinforcement Learning
- Title(参考訳): Weighing Counts:強化学習による逐次集団カウント
- Authors: Liang Liu, Hao Lu, Hongwei Zou, Haipeng Xiong, Zhiguo Cao, Chunhua
Shen
- Abstract要約: 我々は、逐次決定問題としてカウントを定式化し、深層強化学習により解ける新しい群集カウントモデルを提案する。
本稿では,LibraNetと呼ばれる新しい「カウントスケール」を提案する。
LibraNetは、LibraNetがアクションの選択方法を決定する過程を可視化することで、正確にスケール計測を実装していることを示す。
- 参考スコア(独自算出の注目度): 84.39624429527987
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We formulate counting as a sequential decision problem and present a novel
crowd counting model solvable by deep reinforcement learning. In contrast to
existing counting models that directly output count values, we divide one-step
estimation into a sequence of much easier and more tractable sub-decision
problems. Such sequential decision nature corresponds exactly to a physical
process in reality scale weighing. Inspired by scale weighing, we propose a
novel 'counting scale' termed LibraNet where the count value is analogized by
weight. By virtually placing a crowd image on one side of a scale, LibraNet
(agent) sequentially learns to place appropriate weights on the other side to
match the crowd count. At each step, LibraNet chooses one weight (action) from
the weight box (the pre-defined action pool) according to the current crowd
image features and weights placed on the scale pan (state). LibraNet is
required to learn to balance the scale according to the feedback of the needle
(Q values). We show that LibraNet exactly implements scale weighing by
visualizing the decision process how LibraNet chooses actions. Extensive
experiments demonstrate the effectiveness of our design choices and report
state-of-the-art results on a few crowd counting benchmarks. We also
demonstrate good cross-dataset generalization of LibraNet. Code and models are
made available at: https://git.io/libranet
- Abstract(参考訳): 逐次決定問題としてカウントを定式化し、深層強化学習により解ける新しい群集カウントモデルを提案する。
カウント値を直接出力する既存の計数モデルとは対照的に、ワンステップ推定をより簡単で扱いやすい部分分解問題の列に分割する。
このような逐次的決定の性質は、実重量スケールの物理的過程に正確に対応している。
尺度重み付けに触発されて,数値を重みで類推する新しい「計数尺度」libranetを提案する。
実際に群衆像をスケールの片側に配置することで、LibraNet(エージェント)は、群衆数と一致するように、反対側に適切な重みを置くことをシーケンシャルに学習する。
各ステップでlibranetは、スケールパン(状態)に置かれている現在の群衆画像の特徴と重みに応じて、重みボックス(事前定義されたアクションプール)から1つの重み(アクション)を選択する。
LibraNetは針(Q値)のフィードバックに応じてスケールのバランスを学ぶ必要がある。
LibraNetは、LibraNetがアクションの選択方法を決定する過程を可視化することで、正確にスケール計測を実装していることを示す。
広範な実験によって設計選択の有効性が示され、いくつかのクラウドカウントベンチマークで最新の結果が報告された。
また、LibraNetのクロスデータセットの優れた一般化を示す。
コードとモデルは、https://git.io/libranetで利用可能である。
関連論文リスト
- Stochastic Approximation Approach to Federated Machine Learning [0.0]
本稿では、近似(SA)フレームワークにおけるフェデレートラーニング(FL)について検討する。
FLは、さまざまな参加者やクライアント間でニューラルネットワークモデルをトレーニングする、協調的な方法である。
提案アルゴリズムは頑健であり,より信頼性の高い重み推定を行う。
論文 参考訳(メタデータ) (2024-02-20T12:00:25Z) - STEERER: Resolving Scale Variations for Counting and Localization via
Selective Inheritance Learning [74.2343877907438]
スケールの変動はオブジェクトカウントにおける根深い問題であり、既存のスケールアウェアアルゴリズムでは効果的に対処されていない。
本稿では,オブジェクトカウントにおけるスケール変動の問題に対処する,STEERERと呼ばれる新しい手法を提案する。
STEERERは、特徴抽出を促進するために、パッチオブジェクトに最も適したスケールを選択し、下位から上位までの識別的特徴のみを徐々に継承する。
論文 参考訳(メタデータ) (2023-08-21T05:09:07Z) - Self-similarity Driven Scale-invariant Learning for Weakly Supervised
Person Search [66.95134080902717]
自己相似性駆動型スケール不変学習(SSL)という新しいワンステップフレームワークを提案する。
本稿では,ネットワークを前景と学習スケール不変の機能に集中させるための,マルチスケール・エクステンプラー・ブランチを提案する。
PRWおよびCUHK-SYSUデータベースの実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-02-25T04:48:11Z) - Scale Attention for Learning Deep Face Representation: A Study Against
Visual Scale Variation [69.45176408639483]
我々はスケール空間理論に頼って凸層を再構築する。
我々はSCale AttentioN Conv Neural Network(textbfSCAN-CNN)という新しいスタイルを構築した。
単発方式として、推論はマルチショット融合よりも効率的である。
論文 参考訳(メタデータ) (2022-09-19T06:35:04Z) - ScaleNet: A Shallow Architecture for Scale Estimation [25.29257353644138]
我々は、画像間のスケールを予測するために、拡張畳み込みと自己および相互相関レイヤを利用する新しいアーキテクチャであるScaleNetを設計する。
本研究では, カメラポーズ推定, 3次元再構成, あるいは密度幾何マッチングを改善するために, 局所的特徴と密接な通信網を組み合わせる方法を示す。
論文 参考訳(メタデータ) (2021-12-09T11:32:01Z) - DISCO: accurate Discrete Scale Convolutions [2.1485350418225244]
スケールは、多くのビジョンタスクにおいて与えられた、乱雑な要因と見なされることが多い。そうすると、学習中により多くのデータを必要とする要因の1つである。
我々は,スケールの粒度とフィルタサイズが小さい問題に適用可能な,高精度なスケール等価畳み込みニューラルネットワーク(SE-CNN)を提案する。
論文 参考訳(メタデータ) (2021-06-04T21:48:09Z) - Direct Quantization for Training Highly Accurate Low Bit-width Deep
Neural Networks [73.29587731448345]
本稿では,低ビット幅重みとアクティベーションで深部畳み込みニューラルネットワークを訓練する2つの新しい手法を提案する。
まず、ビット幅の少ない重みを得るため、既存の方法の多くは、全精度ネットワーク重みで量子化することにより量子化重みを得る。
第二に、低ビット幅のアクティベーションを得るために、既存の作品はすべてのチャネルを等しく考慮する。
論文 参考訳(メタデータ) (2020-12-26T15:21:18Z) - Completely Self-Supervised Crowd Counting via Distribution Matching [92.09218454377395]
我々は,密集した群集数に対するトレーニングモデルに対する完全な自己超越的アプローチを提案する。
トレーニングに必要な入力は、大量の未ラベルの群衆画像以外は、群衆数に近似した上限である。
提案手法は,自然群集が逆伝播の誤り信号を生成するために利用可能な電力法分布に従うという考え方に富む。
論文 参考訳(メタデータ) (2020-09-14T13:20:12Z) - FU-net: Multi-class Image Segmentation Using Feedback Weighted U-net [5.193724835939252]
マルチクラス画像分割のための汎用ディープ畳み込みニューラルネットワーク(DCNN)を提案する。
U-netとして知られる、よく確立された教師付きエンドツーエンドDCNNモデルに基づいている。
論文 参考訳(メタデータ) (2020-04-28T13:08:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。