論文の概要: IOR: Inversed Objects Replay for Incremental Object Detection
- arxiv url: http://arxiv.org/abs/2406.04829v4
- Date: Fri, 17 Jan 2025 03:39:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-20 10:40:22.080488
- Title: IOR: Inversed Objects Replay for Incremental Object Detection
- Title(参考訳): IOR: インクリメンタルオブジェクト検出のための逆オブジェクトリプレイ
- Authors: Zijia An, Boyu Diao, Libo Huang, Ruiqi Liu, Zhulin An, Yongjun Xu,
- Abstract要約: 多くのIODメソッドは、ラベル付けされていない古いクラスオブジェクトがインクリメンタルデータでラベル付けされた新しいクラスオブジェクトと共起する可能性があるという仮定に依存している。
本稿では, 従来の世代ベースIODは, 追加のトレーニングと蓄積を必要とする生成モデルの使用と, 生成サンプルの過剰生産の両方において, 冗長性に悩まされていることを論じる。
生成したサンプル中のオブジェクトを再利用し、冗長な世代を減らし、拡張再生を提案する。
- 参考スコア(独自算出の注目度): 22.415936450558334
- License:
- Abstract: Existing Incremental Object Detection (IOD) methods partially alleviate catastrophic forgetting when incrementally detecting new objects in real-world scenarios. However, many of these methods rely on the assumption that unlabeled old-class objects may co-occur with labeled new-class objects in the incremental data. When unlabeled old-class objects are absent, the performance of existing methods tends to degrade. The absence can be mitigated by generating old-class samples, but it incurs high costs. This paper argues that previous generation-based IOD suffers from redundancy, both in the use of generative models, which require additional training and storage, and in the overproduction of generated samples, many of which do not contribute significantly to performance improvements. To eliminate the redundancy, we propose Inversed Objects Replay (IOR). Specifically, we generate old-class samples by inversing the original detectors, thus eliminating the necessity of training and storing additional generative models. We propose augmented replay to reuse the objects in generated samples, reducing redundant generations. Moreover, we propose high-value knowledge distillation focusing on the positions of old-class objects overwhelmed by the background, which transfers the knowledge to the incremental detector. Extensive experiments conducted on MS COCO 2017 demonstrate that our method can efficiently improve detection performance in IOD scenarios with the absence of old-class objects.
- Abstract(参考訳): 既存のインクリメンタルオブジェクト検出(IOD)手法は、現実のシナリオで新しいオブジェクトを段階的に検出する際の破滅的な忘れを部分的に軽減する。
しかし、これらの手法の多くは、ラベル付けされていない古いクラスオブジェクトがインクリメンタルデータの中でラベル付けされた新しいクラスオブジェクトと共起する可能性があるという仮定に依存している。
ラベルのない古いオブジェクトが存在しない場合、既存のメソッドのパフォーマンスは低下する傾向があります。
古いサンプルを生成することで、不在を軽減できるが、高いコストを発生させる。
本稿では, 従来の世代ベースIODは, 追加のトレーニングと蓄積を必要とする生成モデルの使用と, 生成サンプルの過剰生産の両方において冗長性に悩まされており, その多くが性能改善に大きく寄与していないことを論じる。
冗長性を排除するため,逆オブジェクト再生(Inversed Objects Replay, IOR)を提案する。
具体的には、元の検出器を逆転させることで古いサンプルを生成し、トレーニングや追加生成モデルの保存の必要性を解消する。
生成したサンプル中のオブジェクトを再利用し、冗長な世代を減らし、拡張再生を提案する。
さらに,背景に圧倒された古クラスの物体の位置に着目した高付加価値の知識蒸留を提案し,その知識をインクリメンタル検出器に伝達する。
また,MS COCO 2017で行った大規模な実験により,従来のオブジェクトが存在しないIODシナリオにおける検出性能を効率よく向上できることを示した。
関連論文リスト
- Exploiting Unlabeled Data with Multiple Expert Teachers for Open Vocabulary Aerial Object Detection and Its Orientation Adaptation [58.37525311718006]
OVAD(Open-vocabulary Aero Object Detection)という,航空物体検出問題の新しい定式化を行った。
本稿では,CLIP-activated students-Teacher DetectionフレームワークであるCastDetを提案する。
本フレームワークは,ロバストなローカライズ教師といくつかのボックス選択戦略を統合し,新しいオブジェクトの高品質な提案を生成する。
論文 参考訳(メタデータ) (2024-11-04T12:59:13Z) - Efficient Non-Exemplar Class-Incremental Learning with Retrospective Feature Synthesis [21.348252135252412]
現在のNon-Exemplar Class-Incremental Learning (NECIL)メソッドは、クラス毎に1つのプロトタイプを格納することで、忘れを軽減している。
そこで本研究では,より効率的なNECIL手法を提案する。
提案手法は,非経験的クラスインクリメンタル学習の効率を大幅に向上させ,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-11-03T07:19:11Z) - PASS++: A Dual Bias Reduction Framework for Non-Exemplar Class-Incremental Learning [49.240408681098906]
クラスインクリメンタルラーニング(CIL)は,旧クラスの識別性を維持しつつ,新たなクラスを段階的に認識することを目的としている。
既存のCILメソッドの多くは、例えば、古いデータの一部を格納して再トレーニングする例がある。
本稿では、入力空間における自己教師付き変換(SST)と深い特徴空間におけるプロトタイプ拡張(protoAug)を利用する、単純で斬新な二重バイアス低減フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-19T05:03:16Z) - SDDGR: Stable Diffusion-based Deep Generative Replay for Class Incremental Object Detection [8.423544221521201]
クラスインクリメンタルオブジェクト検出(CIOD)のためのSDDGRと呼ばれる新しい手法を提案する。
本手法は,事前学習したテキスト-拡散ネットワークを用いた拡散モデルを用いて,現実的で多様な合成画像を生成する。
我々のアプローチには、新しいタスクイメージ内の古いオブジェクトの擬似ラベル付けが含まれており、背景要素としての誤分類を防ぐ。
論文 参考訳(メタデータ) (2024-02-27T09:01:03Z) - DualTeacher: Bridging Coexistence of Unlabelled Classes for
Semi-supervised Incremental Object Detection [53.8061502411777]
現実世界のアプリケーションでは、オブジェクト検出器は、しばしば新しいクラスのオブジェクトインスタンスに遭遇し、それらを効果的に適合させる必要がある。
以前の作業では、この重要な問題をインクリメンタルオブジェクト検出(IOD)として定式化しており、新しいクラスのオブジェクトインスタンスがインクリメンタルデータで完全に注釈付けされていると仮定している。
我々は、より現実的な半教師付きIOD (SSIOD) について考察する。オブジェクト検出器は、ラベル付きデータと大量の非ラベル付きデータから、段階的に新しいクラスを学習する必要がある。
論文 参考訳(メタデータ) (2023-12-13T10:46:14Z) - Identification of Novel Classes for Improving Few-Shot Object Detection [12.013345715187285]
Few-shot Object Detection (FSOD) メソッドは、クラス毎に少数のトレーニングサンプルのみを使用して、堅牢なオブジェクト検出を実現することで、改善を提供する。
我々は、FSOD性能を向上させるためのトレーニング中に、未ラベルの新規物体を正のサンプルとして検出し、利用するための半教師付きアルゴリズムを開発した。
実験の結果,本手法は既存のSOTA FSOD法よりも有効であり,優れた結果が得られた。
論文 参考訳(メタデータ) (2023-03-18T14:12:52Z) - Incremental-DETR: Incremental Few-Shot Object Detection via
Self-Supervised Learning [60.64535309016623]
本稿では,DeTRオブジェクト検出器上での微調整および自己教師型学習によるインクリメンタル・デクリメンタル・デクリメンタル・デクリメンタル・オブジェクト検出を提案する。
まず,DeTRのクラス固有のコンポーネントを自己監督で微調整する。
さらに,DeTRのクラス固有のコンポーネントに知識蒸留を施した数発の微調整戦略を導入し,破滅的な忘れを伴わずに新しいクラスを検出するネットワークを奨励する。
論文 参考訳(メタデータ) (2022-05-09T05:08:08Z) - Multi-View Correlation Distillation for Incremental Object Detection [12.536640582318949]
我々は,新しいtextbfMulti-textbfView textbfCorrelation textbfDistillation (MVCD) を用いたインクリメンタルオブジェクト検出法を提案する。
論文 参考訳(メタデータ) (2021-07-05T04:36:33Z) - Robust and Accurate Object Detection via Adversarial Learning [111.36192453882195]
この研究は、逆の例を探索することで、物体検出器の微調整段階を補強する。
提案手法は,オブジェクト検出ベンチマークにおいて,最先端のEfficientDetsの性能を+1.1mAP向上させる。
論文 参考訳(メタデータ) (2021-03-23T19:45:26Z) - Incremental Object Detection via Meta-Learning [77.55310507917012]
本稿では,段階的タスク間の情報を最適に共有するように,モデル勾配を再形成するメタラーニング手法を提案する。
既存のメタ学習法と比較して,本手法はタスク非依存であり,オブジェクト検出のための高容量モデルに新たなクラスやスケールを段階的に追加することができる。
論文 参考訳(メタデータ) (2020-03-17T13:40:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。