論文の概要: One-Shot Crowd Counting With Density Guidance For Scene Adaptaion
- arxiv url: http://arxiv.org/abs/2602.07955v1
- Date: Sun, 08 Feb 2026 12:58:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.889387
- Title: One-Shot Crowd Counting With Density Guidance For Scene Adaptaion
- Title(参考訳): シーン適応のための密度誘導によるワンショット観客数
- Authors: Jiwei Chen, Qi Wang, Junyu Gao, Jing Zhang, Dingyi Li, Jing-Jia Luo,
- Abstract要約: 既存の群衆モデルには、目に見えない監視シーンに対する限定的な一般化がある。
モデルの一般化を改善するため、異なる監視シーンを異なるカテゴリシーンとみなす。
本研究では,局所的およびグローバルな密度特性を活用して,見知らぬ監視シーンの群集数モデルを提案する。
- 参考スコア(独自算出の注目度): 25.032009219268875
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Crowd scenes captured by cameras at different locations vary greatly, and existing crowd models have limited generalization for unseen surveillance scenes. To improve the generalization of the model, we regard different surveillance scenes as different category scenes, and introduce few-shot learning to make the model adapt to the unseen surveillance scene that belongs to the given exemplar category scene. To this end, we propose to leverage local and global density characteristics to guide the model of crowd counting for unseen surveillance scenes. Specifically, to enable the model to adapt to the varying density variations in the target scene, we propose the multiple local density learner to learn multi prototypes which represent different density distributions in the support scene. Subsequently, these multiple local density similarity matrixes are encoded. And they are utilized to guide the model in a local way. To further adapt to the global density in the target scene, the global density features are extracted from the support image, then it is used to guide the model in a global way. Experiments on three surveillance datasets shows that proposed method can adapt to the unseen surveillance scene and outperform recent state-of-the-art methods in the few-shot crowd counting.
- Abstract(参考訳): 異なる場所でカメラが捉えた群衆のシーンは様々であり、既存の群衆モデルは目に見えない監視シーンの一般化に限られている。
モデルの一般化を改善するために、異なる監視シーンを異なるカテゴリシーンとみなし、そのモデルが与えられた模範カテゴリシーンに属する見えない監視シーンに適応するように、数ショットの学習を導入する。
そこで本研究では, 現地およびグローバルな密度特性を活用して, 見えない監視シーンの群集数モデルを提案する。
具体的には,モデルが対象シーンの密度変化に適応できるようにするために,複数の局所密度学習者が,支援シーンの密度分布を表す複数のプロトタイプを学習するために提案する。
その後、これらの多重局所密度類似性行列を符号化する。
そして、モデルをローカルにガイドするために利用されます。
対象シーンのグローバルな密度にさらに適応するために、サポート画像からグローバルな密度特徴を抽出し、グローバルな方法でモデルを導出する。
3つの監視データセットの実験により、提案手法は目に見えない監視シーンに適応し、数発の群衆カウントにおいて最新の最先端の手法より優れていることが示された。
関連論文リスト
- Video Individual Counting for Moving Drones [51.429771128144964]
ビデオ・パーソナライズ・カウンティング(VIC)は、インテリジェント・ビデオ監視の重要性から注目を集めている。
以前のデータセットは、比較的まばらな個人で固定または稀に動くカメラでキャプチャされ、混雑したシーンでの高度に異なるビューと時間の評価を制限する。
これらの問題に対処するために、私たちはMovingDroneCrowdデータセットを導入しました。
論文 参考訳(メタデータ) (2025-03-12T07:09:33Z) - CommonScenes: Generating Commonsense 3D Indoor Scenes with Scene Graph
Diffusion [83.30168660888913]
シーングラフを対応する制御可能な3Dシーンに変換する完全生成モデルであるCommonScenesを提案する。
パイプラインは2つのブランチで構成されており、1つは変分オートエンコーダでシーン全体のレイアウトを予測し、もう1つは互換性のある形状を生成する。
生成されたシーンは、入力シーングラフを編集し、拡散モデルのノイズをサンプリングすることで操作することができる。
論文 参考訳(メタデータ) (2023-05-25T17:39:13Z) - Learning Independent Instance Maps for Crowd Localization [44.6430092887941]
Independent Instance Map segmentation (IIM) という,クラウドローカライゼーションのためのエンドツーエンドかつ簡単なフレームワークを提案する。
IIMセグメントは独立した接続コンポーネントに群集し、位置と群集数を得ます。
異なる密度領域のセグメンテーション品質を向上させるために,微分可能二元化モジュール(bm)を提案する。
BMはローカライズモデルに2つの利点をもたらす: 1) 異なる画像のしきい値マップを適応的に学習し、各インスタンスをより正確に検出する; 2) バイナリ予測とラベルの損失を使ってモデルを直接訓練する。
論文 参考訳(メタデータ) (2020-12-08T02:17:19Z) - AdaCrowd: Unlabeled Scene Adaptation for Crowd Counting [14.916045549353987]
本稿では,未ラベルのシーン適応型群衆カウントと呼ばれる新しい問題を提案する。
新しいターゲットシーンを前提として、この特定のシーンに特化して群衆カウントモデルを構築したい。
本稿では,対象シーンからの1つ以上の未ラベル画像を用いて適応を行うことを提案する。
論文 参考訳(メタデータ) (2020-10-23T03:20:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。