論文の概要: Crowd Localization from Gaussian Mixture Scoped Knowledge and Scoped
Teacher
- arxiv url: http://arxiv.org/abs/2206.05717v1
- Date: Sun, 12 Jun 2022 11:07:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-15 08:57:36.012559
- Title: Crowd Localization from Gaussian Mixture Scoped Knowledge and Scoped
Teacher
- Title(参考訳): ガウス混合スコープ知識とスコープ教師の集団局在
- Authors: Juncheng Wang, Junyu Gao, Yuan Yuan, Qi Wang
- Abstract要約: 本論文は,本質的なスケールシフトによって生じるスケール分布のカオスに取り組むことに集中する。
カオススケール分布を正規化するためのガウス混合スコープ(GMS)を提案する。
提案したGMSとScoped Teacherは,5つの主要なクラウドローカライゼーションデータセットに実装されている。
- 参考スコア(独自算出の注目度): 32.567344122170844
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Crowd localization is to predict each instance head position in crowd
scenarios. Since the distance of instances being to the camera are variant,
there exists tremendous gaps among scales of instances within an image, which
is called the intrinsic scale shift. The core reason of intrinsic scale shift
being one of the most essential issues in crowd localization is that it is
ubiquitous in crowd scenes and makes scale distribution chaotic.
To this end, the paper concentrates on access to tackle the chaos of the
scale distribution incurred by intrinsic scale shift. We propose Gaussian
Mixture Scope (GMS) to regularize the chaotic scale distribution. Concretely,
the GMS utilizes a Gaussian mixture distribution to adapt to scale distribution
and decouples the mixture model into sub-normal distributions to regularize the
chaos within the sub-distributions. Then, an alignment is introduced to
regularize the chaos among sub-distributions. However, despite that GMS is
effective in regularizing the data distribution, it amounts to dislodging the
hard samples in training set, which incurs overfitting. We assert that it is
blamed on the block of transferring the latent knowledge exploited by GMS from
data to model. Therefore, a Scoped Teacher playing a role of bridge in
knowledge transform is proposed. What' s more, the consistency regularization
is also introduced to implement knowledge transform. To that effect, the
further constraints are deployed on Scoped Teacher to derive feature
consistence between teacher and student end.
With proposed GMS and Scoped Teacher implemented on five mainstream datasets
of crowd localization, the extensive experiments demonstrate the superiority of
our work. Moreover, comparing with existing crowd locators, our work achieves
state-of-the-art via F1-meansure comprehensively on five datasets.
- Abstract(参考訳): 群衆のローカライゼーションは、群衆シナリオにおける各インスタンスの先頭位置を予測することである。
カメラへのインスタンスの距離は様々であるため、画像内のインスタンスのスケールの間には大きなギャップがあり、これは本質的なスケールシフトと呼ばれる。
内在的なスケールシフトが、群衆のローカライゼーションにおいて最も重要な問題の1つである理由は、群衆のシーンに広く行き渡っており、スケールの分布がカオスになるからである。
この目的のために本論文では,本質的なスケールシフトによって生じるスケール分布のカオスに取り組むことに集中する。
カオススケール分布を正規化するためのガウス混合スコープ(GMS)を提案する。
具体的には、GMSはガウス混合分布を用いて分布を拡大し、混合モデルをサブ正規分布に分解し、サブ分布内のカオスを正規化する。
そして、サブディストリビューション間のカオスを規則化するアライメントを導入する。
しかし、gmsがデータ分布の規則化に有効であるにもかかわらず、トレーニングセット内のハードサンプルの廃棄は過剰に適合する。
我々は、GMSが活用する潜伏知識をデータからモデルに転送するブロックが原因であると断言する。
そこで,知識変換におけるブリッジの役割を担っているスコープ教師を提案する。
さらに、知識変換を実装するために一貫性の規則化も導入されている。
この効果により、教師と生徒の終端を構成する特徴を導出するために、スコープ教師にさらなる制約を課すことができる。
クラウドローカライゼーションの5つのメインストリームデータセットにgmの提案とスコープ付き教師が実装されたことにより,本研究の優越性が実証された。
さらに,既存のクラウドロケータと比較して,F1-meansureを総合的に5つのデータセット上で実現した。
関連論文リスト
- Harnessing Hierarchical Label Distribution Variations in Test Agnostic Long-tail Recognition [114.96385572118042]
テストラベルの分布の変動は階層的にグローバルレベルとローカルレベルに分解できると主張している。
ラベル分布の異なるDirichletメタ分布に専門家を割り当てる新しいMoE戦略である$mathsfDirMixE$を提案する。
本稿では,分散に基づく正規化による一般化の促進による目的性を示す。
論文 参考訳(メタデータ) (2024-05-13T14:24:56Z) - FedUV: Uniformity and Variance for Heterogeneous Federated Learning [5.9330433627374815]
フェデレーション学習は、広く分散されたデータでニューラルネットワークをトレーニングするための有望なフレームワークである。
最近の研究によると、ネットワークの最終層が局所バイアスの傾向が最も大きいためである。
凍結重量が一定の特異値をもたらすという観測によって動機付けられた重みにSVDを適用して分類器の訓練力学を考察する。
論文 参考訳(メタデータ) (2024-02-27T15:53:15Z) - Combating Representation Learning Disparity with Geometric Harmonization [50.29859682439571]
本稿では,表現学習におけるカテゴリレベルの均一性を促進するために,新しい幾何調和法を提案する。
我々の提案はSSLの設定を変更せず、低コストで既存のメソッドに容易に統合できる。
論文 参考訳(メタデータ) (2023-10-26T17:41:11Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Transferring Fairness under Distribution Shifts via Fair Consistency
Regularization [15.40257564187799]
本研究では,分散シフトの下でモデルフェアネスを伝達する方法について検討する。
ドメインシフトの下での転送精度の自己学習の成功に触発されて、グループフェアネスの転送に十分な条件が導出される。
論文 参考訳(メタデータ) (2022-06-26T06:19:56Z) - Decentralized Local Stochastic Extra-Gradient for Variational
Inequalities [125.62877849447729]
我々は、不均一(非IID)で多くのデバイスに分散する問題データを持つ領域上での分散変分不等式(VIs)を考察する。
我々は、完全に分散化された計算の設定を網羅する計算ネットワークについて、非常に一般的な仮定を行う。
理論的には, モノトン, モノトンおよび非モノトンセッティングにおける収束速度を理論的に解析する。
論文 参考訳(メタデータ) (2021-06-15T17:45:51Z) - WILDS: A Benchmark of in-the-Wild Distribution Shifts [157.53410583509924]
分散シフトは、ワイルドにデプロイされた機械学習システムの精度を実質的に低下させることができる。
分散シフトの多様な範囲を反映した8つのベンチマークデータセットのキュレーションコレクションであるWILDSを紹介します。
本研究は, 標準訓練の結果, 分布性能よりも, 分布域外性能が有意に低下することを示す。
論文 参考訳(メタデータ) (2020-12-14T11:14:56Z) - Embedding Propagation: Smoother Manifold for Few-Shot Classification [131.81692677836202]
本稿では, 組込み伝搬を非教師なし非パラメトリック正規化器として, 数ショット分類における多様体平滑化に用いることを提案する。
埋め込み伝播がより滑らかな埋め込み多様体を生み出すことを実証的に示す。
複数の半教師付き学習シナリオにおいて,埋め込み伝搬によりモデルの精度が最大16%向上することを示す。
論文 参考訳(メタデータ) (2020-03-09T13:51:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。