論文の概要: DCA: Dividing and Conquering Amnesia in Incremental Object Detection
- arxiv url: http://arxiv.org/abs/2503.15295v1
- Date: Wed, 19 Mar 2025 15:17:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-20 15:23:14.702921
- Title: DCA: Dividing and Conquering Amnesia in Incremental Object Detection
- Title(参考訳): DCA:増分物体検出におけるアムネシアの分別と定量化
- Authors: Aoting Zhang, Dongbao Yang, Chang Liu, Xiaopeng Hong, Miao Shang, Yu Zhou,
- Abstract要約: 本研究は,トランスフォーマーを用いたIODにおける局所化と認識の不均衡を忘れて発見する原因について考察する。
本稿では,トランスフォーマーをベースとしたIODを局所化認識プロセスに再設計するDCA戦略を提案する。
提案手法は,特に長期的段階的なシナリオにおいて,最先端のパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 25.11059547936733
- License:
- Abstract: Incremental object detection (IOD) aims to cultivate an object detector that can continuously localize and recognize novel classes while preserving its performance on previous classes. Existing methods achieve certain success by improving knowledge distillation and exemplar replay for transformer-based detection frameworks, but the intrinsic forgetting mechanisms remain underexplored. In this paper, we dive into the cause of forgetting and discover forgetting imbalance between localization and recognition in transformer-based IOD, which means that localization is less-forgetting and can generalize to future classes, whereas catastrophic forgetting occurs primarily on recognition. Based on these insights, we propose a Divide-and-Conquer Amnesia (DCA) strategy, which redesigns the transformer-based IOD into a localization-then-recognition process. DCA can well maintain and transfer the localization ability, leaving decoupled fragile recognition to be specially conquered. To reduce feature drift in recognition, we leverage semantic knowledge encoded in pre-trained language models to anchor class representations within a unified feature space across incremental tasks. This involves designing a duplex classifier fusion and embedding class semantic features into the recognition decoding process in the form of queries. Extensive experiments validate that our approach achieves state-of-the-art performance, especially for long-term incremental scenarios. For example, under the four-step setting on MS-COCO, our DCA strategy significantly improves the final AP by 6.9%.
- Abstract(参考訳): インクリメンタルオブジェクト検出(IOD)は、新しいクラスを継続的にローカライズし、認識し、その性能を以前のクラスで維持するオブジェクト検出器の育成を目的としている。
既存の手法は、トランスフォーマーに基づく検出フレームワークの知識蒸留と模範的なリプレイを改善することで、一定の成功を収めるが、本質的な忘れるメカニズムは未解明のままである。
本稿では,変圧器を用いた IOD における局所化と認識の不均衡を忘れる原因を探究する。これは,局所化が小さく,将来のクラスに一般化できることを意味している。
これらの知見に基づいて、トランスフォーマーベースのIODをローカライズ・テーマ認識プロセスに再設計するDCA(Divide-and-Conquer Amnesia)戦略を提案する。
DCAは、局所化能力の維持と伝達をうまく行え、分離された脆弱な認識は特別に征服される。
特徴のドリフトを低減するため、事前訓練された言語モデルで符号化されたセマンティック知識を活用し、インクリメンタルタスクをまたいだ統一機能空間内のクラス表現をアンロックする。
これには、重複分類器の融合とクラスセマンティック機能を、クエリの形式で認識復号プロセスに組み込む設計が含まれる。
大規模な実験により,特に長期的段階的なシナリオにおいて,我々の手法が最先端のパフォーマンスを達成することが検証された。
例えば、MS-COCOの4段階設定では、DCA戦略は最終APを6.9%改善する。
関連論文リスト
- Demystifying Catastrophic Forgetting in Two-Stage Incremental Object Detector [42.40881712297689]
破滅的な忘れ物は主にRoIヘッドに局在している。
NSGP-RePREは2種類のプロトタイプのリプレイを通じて忘れを緩和する。
NSGP-RePREはPascal VOCおよびMS COCOデータセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-02-08T12:10:02Z) - Continual-MAE: Adaptive Distribution Masked Autoencoders for Continual Test-Time Adaptation [49.827306773992376]
連続的テスト時間適応(CTTA)は、ソース事前学習モデルから目標分布の連続的な変化に移行するために提案される。
提案手法は,CTTAタスクの分類とセグメンテーションの両方において,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-12-19T15:34:52Z) - DSD-DA: Distillation-based Source Debiasing for Domain Adaptive Object Detection [37.01880023537362]
我々は、ドメイン適応オブジェクト検出(DAOD)のための新しい蒸留系ソースデバイアス(DSD)フレームワークを提案する。
このフレームワークは、事前訓練された教師モデルからドメインに依存しない知識を抽出し、両方のドメインにおける検出器の性能を向上させる。
また,DCE(Domain-Aware Consistency Enhancing)戦略を提案し,これらの情報を新たなローカライゼーション表現に定式化する。
論文 参考訳(メタデータ) (2023-11-17T10:26:26Z) - Small Object Detection via Coarse-to-fine Proposal Generation and
Imitation Learning [52.06176253457522]
本稿では,粗粒度パイプラインと特徴模倣学習に基づく小型物体検出に適した2段階フレームワークを提案する。
CFINetは、大規模な小さなオブジェクト検出ベンチマークであるSODA-DとSODA-Aで最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-08-18T13:13:09Z) - CLIP the Gap: A Single Domain Generalization Approach for Object
Detection [60.20931827772482]
単一ドメインの一般化(Single Domain Generalization)は、単一のソースドメイン上でモデルをトレーニングすることで、目に見えないターゲットドメインに一般化する問題に取り組む。
本稿では、事前学習された視覚言語モデルを用いて、テキストプロンプトを介して意味領域の概念を導入することを提案する。
本手法は,検出器のバックボーンから抽出した特徴に作用する意味的拡張戦略と,テキストに基づく分類損失によって実現される。
論文 参考訳(メタデータ) (2023-01-13T12:01:18Z) - Localization Distillation for Object Detection [134.12664548771534]
物体検出のための従来の知識蒸留法(KD)は、分類ロジットを模倣するのではなく、主に特徴模倣に焦点を当てている。
本稿では,教師から生徒に効率よくローカライズ知識を伝達できる新しいローカライズ蒸留法を提案する。
われわれは,ロジット模倣が特徴模倣より優れることを示すとともに,ロージット模倣が何年もの間,ロージット模倣が不十分であった理由として,ロージット蒸留が欠如していることが重要である。
論文 参考訳(メタデータ) (2022-04-12T17:14:34Z) - Modulating Localization and Classification for Harmonized Object
Detection [40.82723262074911]
2つのタスクを変調する相互学習フレームワークを提案する。
特に,2つのタスクは,新たな相互ラベル付け戦略によって互いに学習することを余儀なくされる。
COCOデータセットのベースライン検出器に対する大幅なパフォーマンス向上を実現しました。
論文 参考訳(メタデータ) (2021-03-16T10:36:02Z) - Scope Head for Accurate Localization in Object Detection [135.9979405835606]
本研究では,各位置のアンカーを相互依存関係としてモデル化したScopeNetと呼ばれる新しい検出器を提案する。
我々の簡潔で効果的な設計により、提案したScopeNetはCOCOの最先端の成果を達成する。
論文 参考訳(メタデータ) (2020-05-11T04:00:09Z) - Distilling Knowledge from Refinement in Multiple Instance Detection
Networks [0.0]
弱教師付きオブジェクト検出(WSOD)は、ラベル付き画像カテゴリのみを監督として、オブジェクト検出の問題に取り組むことを目的としている。
そこで本研究では,各改良モジュールの監督期間中に,基幹クラス,背景,あるいは無視されるボックスの選択基準を動的に変更する適応型監視アグリゲーション機能を提案する。
論文 参考訳(メタデータ) (2020-04-23T02:49:40Z) - Incremental Object Detection via Meta-Learning [77.55310507917012]
本稿では,段階的タスク間の情報を最適に共有するように,モデル勾配を再形成するメタラーニング手法を提案する。
既存のメタ学習法と比較して,本手法はタスク非依存であり,オブジェクト検出のための高容量モデルに新たなクラスやスケールを段階的に追加することができる。
論文 参考訳(メタデータ) (2020-03-17T13:40:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。