論文の概要: Interlayer and Intralayer Scale Aggregation for Scale-invariant Crowd
Counting
- arxiv url: http://arxiv.org/abs/2005.11943v1
- Date: Mon, 25 May 2020 06:59:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 06:03:43.445875
- Title: Interlayer and Intralayer Scale Aggregation for Scale-invariant Crowd
Counting
- Title(参考訳): スケール不変群数のための層間・層内スケールアグリゲーション
- Authors: Mingjie Wang and Hao Cai and Jun Zhou and Minglun Gong
- Abstract要約: 本稿では,シングルカラムスケール不変ネットワーク(ScSiNet)について述べる。
層間多スケール積分と新しい層間スケール不変変換(SiT)を組み合わせることで、洗練されたスケール不変特徴を抽出する。
公開データセットの実験では、提案手法は精度とスケール不変特性のカウントにおける最先端のアプローチを一貫して上回ることを示した。
- 参考スコア(独自算出の注目度): 19.42355176075503
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Crowd counting is an important vision task, which faces challenges on
continuous scale variation within a given scene and huge density shift both
within and across images. These challenges are typically addressed using
multi-column structures in existing methods. However, such an approach does not
provide consistent improvement and transferability due to limited ability in
capturing multi-scale features, sensitiveness to large density shift, and
difficulty in training multi-branch models. To overcome these limitations, a
Single-column Scale-invariant Network (ScSiNet) is presented in this paper,
which extracts sophisticated scale-invariant features via the combination of
interlayer multi-scale integration and a novel intralayer scale-invariant
transformation (SiT). Furthermore, in order to enlarge the diversity of
densities, a randomly integrated loss is presented for training our
single-branch method. Extensive experiments on public datasets demonstrate that
the proposed method consistently outperforms state-of-the-art approaches in
counting accuracy and achieves remarkable transferability and scale-invariant
property.
- Abstract(参考訳): クラウドカウントは重要なビジョンタスクであり、特定のシーン内の連続的なスケールの変化と、画像内と画像間の大きな密度シフトに直面する。
これらの課題は通常、既存手法のマルチカラム構造を用いて対処される。
しかしながら、このようなアプローチは、マルチスケールな特徴をキャプチャする能力の制限、大きな密度シフトに対する感度、マルチブランチモデルのトレーニングの難しさから、一貫した改善と転送性を提供していない。
このような制約を克服するために,scsinet (single-column scale-invariant network) が提案されている。
さらに, 密度の多様性を増大させるため, 単分岐法をトレーニングするためにランダムに統合された損失を提示する。
公開データセットに対する大規模な実験により、提案手法は精度の計測における最先端のアプローチを一貫して上回り、顕著な転送性およびスケール不変性を達成することを示した。
関連論文リスト
- Multi-scale Unified Network for Image Classification [33.560003528712414]
CNNは、実世界のマルチスケール画像入力を扱う際に、性能と計算効率において顕著な課題に直面している。
本稿では,マルチスケール,統一ネットワーク,スケール不変制約からなるMultiscale Unified Network(MUSN)を提案する。
MUSNは精度が44.53%向上し、マルチスケールシナリオではFLOPを7.01-16.13%減少させる。
論文 参考訳(メタデータ) (2024-03-27T06:40:26Z) - Boosting the Transferability of Adversarial Examples via Local Mixup and
Adaptive Step Size [5.04766995613269]
敵対的な例は、様々な視覚的アプリケーションに対する重要なセキュリティ上の脅威の一つであり、注入された人間に知覚できない摂動が出力を混乱させる可能性がある。
既存の入力多様性に基づく手法では、異なる画像変換が採用されているが、入力の多様性が不十分であり、同じ摂動ステップサイズのため、非効率である可能性がある。
本稿では,改良された入力の多様性と適応的なステップサイズを共同で設計し,ブラックボックスの逆生成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-24T03:26:34Z) - A Novel Cross-Perturbation for Single Domain Generalization [54.612933105967606]
単一ドメインの一般化は、モデルが単一のソースドメインでトレーニングされたときに未知のドメインに一般化する能力を高めることを目的としている。
トレーニングデータの限られた多様性は、ドメイン不変の特徴の学習を妨げ、結果として一般化性能を損なう。
トレーニングデータの多様性を高めるために,CPerbを提案する。
論文 参考訳(メタデータ) (2023-08-02T03:16:12Z) - Deep Neural Networks with Efficient Guaranteed Invariances [77.99182201815763]
我々は、性能改善の問題、特にディープニューラルネットワークのサンプル複雑性に対処する。
群同変畳み込みは同変表現を得るための一般的なアプローチである。
本稿では,各ストリームが異なる変換に不変なマルチストリームアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-03-02T20:44:45Z) - Self-similarity Driven Scale-invariant Learning for Weakly Supervised
Person Search [66.95134080902717]
自己相似性駆動型スケール不変学習(SSL)という新しいワンステップフレームワークを提案する。
本稿では,ネットワークを前景と学習スケール不変の機能に集中させるための,マルチスケール・エクステンプラー・ブランチを提案する。
PRWおよびCUHK-SYSUデータベースの実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-02-25T04:48:11Z) - Auto-regressive Image Synthesis with Integrated Quantization [55.51231796778219]
本稿では,条件付き画像生成のための多目的フレームワークを提案する。
CNNの帰納バイアスと自己回帰の強力なシーケンスモデリングが組み込まれている。
提案手法は,最先端技術と比較して,優れた多彩な画像生成性能を実現する。
論文 参考訳(メタデータ) (2022-07-21T22:19:17Z) - Resource-Efficient Invariant Networks: Exponential Gains by Unrolled
Optimization [8.37077056358265]
本稿では,最適化に基づく不変ネットワーク構築のための新しい計算プリミティブを提案する。
提案手法の効率向上と音質の実証的,理論的検討を行った。
単純な階層的オブジェクト検出タスクに対して,効率的な不変ネットワークを構築する上で,その有用性を実証する。
論文 参考訳(メタデータ) (2022-03-09T19:04:08Z) - Consistency and Diversity induced Human Motion Segmentation [231.36289425663702]
本稿では,CDMS(Consistency and Diversity induced Human Motion)アルゴリズムを提案する。
我々のモデルは、ソースとターゲットデータを異なる多層特徴空間に分解する。
ソースとターゲットデータ間の領域ギャップを低減するために、マルチミューチュアル学習戦略を実行する。
論文 参考訳(メタデータ) (2022-02-10T06:23:56Z) - Invariance-based Multi-Clustering of Latent Space Embeddings for
Equivariant Learning [12.770012299379099]
より深い群不変学習を強制することにより、リー群多様体における等角写像を非共役化する手法を提案する。
実験の結果,このモデルでは,不変表現と同変表現を効果的に切り離すことができ,学習速度が大幅に向上することがわかった。
論文 参考訳(メタデータ) (2021-07-25T03:27:47Z) - Weakly supervised segmentation with cross-modality equivariant
constraints [7.757293476741071]
弱い教師付き学習は、セマンティックセグメンテーションにおける大きなラベル付きデータセットの必要性を軽減するための魅力的な代替手段として登場した。
本稿では,マルチモーダル画像シナリオにおける自己スーパービジョンを活用した新しい学習戦略を提案する。
私たちのアプローチは、同じ学習条件下で関連する最近の文学を上回ります。
論文 参考訳(メタデータ) (2021-04-06T13:14:20Z) - Crowd Counting via Hierarchical Scale Recalibration Network [61.09833400167511]
本稿では,群集カウントの課題に取り組むために,階層型大規模校正ネットワーク(HSRNet)を提案する。
HSRNetは、リッチなコンテキスト依存をモデル化し、複数のスケール関連情報を再検討する。
提案手法は,様々なノイズを選択的に無視し,適切な群集スケールに自動的に焦点を合わせることができる。
論文 参考訳(メタデータ) (2020-03-07T10:06:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。