論文の概要: Augmented Box Replay: Overcoming Foreground Shift for Incremental Object
Detection
- arxiv url: http://arxiv.org/abs/2307.12427v1
- Date: Sun, 23 Jul 2023 20:47:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-25 16:09:53.342307
- Title: Augmented Box Replay: Overcoming Foreground Shift for Incremental Object
Detection
- Title(参考訳): Augmented Box Replay: インクリメンタルオブジェクト検出のための前景シフトの克服
- Authors: Liu Yuyang, Cong Yang, Goswami Dipam, Liu Xialei, Joost van de Weijer
- Abstract要約: 漸進的な学習では、過去のタスクから格納されたサンプルを現在のタスクサンプルと共に再生することが、破滅的な忘れに対処する最も効率的なアプローチの1つである。
インクリメンタルな分類とは異なり、画像リプレイはインクリメンタルなオブジェクト検出(IOD)にはうまく適用されていない。
前景シフトは、以前のタスクのイメージを再生する際にのみ発生し、その背景に現在のタスクの前景オブジェクトが含まれる可能性があるという事実を指す。
- 参考スコア(独自算出の注目度): 26.948748060138264
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In incremental learning, replaying stored samples from previous tasks
together with current task samples is one of the most efficient approaches to
address catastrophic forgetting. However, unlike incremental classification,
image replay has not been successfully applied to incremental object detection
(IOD). In this paper, we identify the overlooked problem of foreground shift as
the main reason for this. Foreground shift only occurs when replaying images of
previous tasks and refers to the fact that their background might contain
foreground objects of the current task. To overcome this problem, a novel and
efficient Augmented Box Replay (ABR) method is developed that only stores and
replays foreground objects and thereby circumvents the foreground shift
problem. In addition, we propose an innovative Attentive RoI Distillation loss
that uses spatial attention from region-of-interest (RoI) features to constrain
current model to focus on the most important information from old model. ABR
significantly reduces forgetting of previous classes while maintaining high
plasticity in current classes. Moreover, it considerably reduces the storage
requirements when compared to standard image replay. Comprehensive experiments
on Pascal-VOC and COCO datasets support the state-of-the-art performance of our
model.
- Abstract(参考訳): 漸進的な学習では、過去のタスクから格納されたサンプルを現在のタスクサンプルと共に再生することが、破滅的な忘れに対処する最も効率的なアプローチの1つである。
しかし、インクリメンタル分類とは異なり、画像再生はインクリメンタルオブジェクト検出(iod)にうまく適用されていない。
本稿では、この主な理由として、前景シフトの見落とされがちな問題を特定する。
前景シフトは、以前のタスクのイメージを再生する際にのみ発生し、その背景に現在のタスクの前景オブジェクトが含まれているという事実を指す。
この問題を解決するために,前景オブジェクトのみを記憶・再生し,前景シフト問題を回避できる新規かつ効率的な拡張ボックスリプレイ(abr)法を開発した。
さらに,関心領域(RoI)特徴からの空間的注意を生かし,従来のモデルから最も重要な情報に焦点を絞るために電流モデルを制約する,革新的なRoI蒸留損失を提案する。
ABRは、現在のクラスで高い可塑性を維持しながら、以前のクラスの忘れを著しく減少させる。
さらに、標準的な画像再生と比較してストレージ要求を大幅に削減する。
Pascal-VOCおよびCOCOデータセットに関する総合実験は、我々のモデルの最先端性能をサポートする。
関連論文リスト
- Enhancing Consistency and Mitigating Bias: A Data Replay Approach for
Incremental Learning [100.7407460674153]
ディープラーニングシステムは、一連のタスクから学ぶとき、破滅的な忘れがちだ。
問題を緩和するため、新しいタスクを学ぶ際に経験豊富なタスクのデータを再生する手法が提案されている。
しかし、メモリ制約やデータプライバシーの問題を考慮すると、実際には期待できない。
代替として、分類モデルからサンプルを反転させることにより、データフリーなデータ再生法を提案する。
論文 参考訳(メタデータ) (2024-01-12T12:51:12Z) - FDCNet: Feature Drift Compensation Network for Class-Incremental Weakly
Supervised Object Localization [10.08410402383604]
本研究は、クラス増分弱教師付きオブジェクトローカライゼーション(CI-WSOL)の課題に対処する。
ゴールは、画像レベルのアノテーションのみを使用して、新しいクラスのオブジェクトローカライゼーションを漸進的に学習し、以前に学習したクラスをローカライズする能力を維持することである。
まず、クラスインクリメンタル分類器の戦略を破滅的な忘れ方に適用し、CI-WSOLの強力なベースライン法を提案する。
そこで我々は,特徴ドリフトがクラススコアやローカライゼーションマップに与える影響を補償する特徴ドリフト補償ネットワークを提案する。
論文 参考訳(メタデータ) (2023-09-17T01:10:45Z) - Rethinking the Localization in Weakly Supervised Object Localization [51.29084037301646]
弱教師付きオブジェクトローカライゼーション(WSOL)は、コンピュータビジョンにおいて最も人気があり、困難なタスクの1つである。
最近、WSOLを2つの部分(クラスに依存しないオブジェクトのローカライゼーションとオブジェクトの分類)に分割することが、このタスクの最先端のパイプラインになっている。
本研究では,SCRを複数物体の局所化のためのバイナリクラス検出器(BCD)に置き換えることを提案する。
論文 参考訳(メタデータ) (2023-08-11T14:38:51Z) - Map-based Experience Replay: A Memory-Efficient Solution to Catastrophic
Forgetting in Reinforcement Learning [15.771773131031054]
深層強化学習エージェントは、しばしば破滅的な忘れ込みに悩まされ、新しいデータをトレーニングする際に、入力空間の一部で以前見つかったソリューションを忘れる。
本稿では,Grow-When-Required(GWR)自己組織化ネットワークに基づく,認知に触発された新しいリプレイメモリ手法を提案する。
提案手法では, 状態ノードと遷移エッジの簡潔な環境モデルライクなネットワークに格納された遷移を整理し, 類似のサンプルをマージすることにより, メモリサイズを小さくし, サンプル間のペアワイズ距離を増大させる。
論文 参考訳(メタデータ) (2023-05-03T11:39:31Z) - Density Map Distillation for Incremental Object Counting [37.982124268097]
インクリメンタルなオブジェクトカウントに対するナイーブなアプローチは、破滅的な忘れ込みに悩まされ、以前のタスクに対する劇的なパフォーマンス低下に悩まされる。
密度マップ蒸留法 (DMD) と呼ばれる, 先例のない関数正規化手法を提案する。
トレーニング中,各タスクに新しいカウンタヘッドを導入し,従来のタスクを忘れないように蒸留損失を導入する。
論文 参考訳(メタデータ) (2023-04-11T14:46:21Z) - Task-Adaptive Saliency Guidance for Exemplar-free Class Incremental Learning [60.501201259732625]
EFCILにタスク適応型サリエンシを導入し、タスク適応型サリエンシ・スーパービジョン(TASS)と呼ばれる新しいフレームワークを提案する。
提案手法は,CIFAR-100, Tiny-ImageNet, ImageNet-Subset EFCILベンチマークを用いて,タスク間のサリエンシマップの保存や,最先端の成果の達成に有効であることを示す。
論文 参考訳(メタデータ) (2022-12-16T02:43:52Z) - Learning to Detect Every Thing in an Open World [139.78830329914135]
我々は、Learning to Detect Every Thing (LDET)と呼ぶ、シンプルながら驚くほど強力なデータ拡張とトレーニングスキームを提案する。
可視だがラベル付けされていない背景オブジェクトの隠蔽を避けるため、元の画像の小さな領域から採取した背景画像上に注釈付きオブジェクトを貼り付ける。
LDETは、オープンワールドのインスタンスセグメンテーションタスクにおいて、多くのデータセットに大きな改善をもたらす。
論文 参考訳(メタデータ) (2021-12-03T03:56:06Z) - Always Be Dreaming: A New Approach for Data-Free Class-Incremental
Learning [73.24988226158497]
データフリークラスインクリメンタルラーニング(DFCIL)における高インパクト問題について考察する。
そこで本研究では, 改良型クロスエントロピートレーニングと重要重み付き特徴蒸留に寄与するDFCILの新たなインクリメンタル蒸留戦略を提案する。
本手法は,共通クラスインクリメンタルベンチマークにおけるSOTA DFCIL法と比較して,最終タスク精度(絶対差)が25.1%向上する。
論文 参考訳(メタデータ) (2021-06-17T17:56:08Z) - The Effectiveness of Memory Replay in Large Scale Continual Learning [42.67483945072039]
入力シーケンス内のタスクが分類に制限されず、出力が高次元の大規模環境で連続学習を研究する。
既存のメソッドは通常、入出力ペアのみを再生する。
入力と出力のペアに加えて,中間層の活性化を再現する。
論文 参考訳(メタデータ) (2020-10-06T01:23:12Z) - Generative Feature Replay For Class-Incremental Learning [46.88667212214957]
タスクIDが推論時に未知であることを意味するクラスインクリメンタル設定を考える。
古いクラスと新しいクラスの不均衡は通常、ネットワークの最新のクラスへのバイアスをもたらす。
本稿では,前向きな表現を必要としない生成的特徴リプレイに基づくソリューションを提案する。
論文 参考訳(メタデータ) (2020-04-20T10:58:20Z) - Solving Missing-Annotation Object Detection with Background
Recalibration Loss [49.42997894751021]
本稿では,新しい,かつ困難な検出シナリオに焦点を当てる。 真のオブジェクト/インスタンスの大部分は,データセットにラベル付けされていない。
従来, ソフトサンプリングを用いて, 正の例と重なり合うRoIsの勾配を再重み付けする手法が提案されてきた。
本稿では、予め定義されたIoU閾値と入力画像に基づいて損失信号を自動的に校正できる、バックグラウンド校正損失(BRL)と呼ばれる優れた解を提案する。
論文 参考訳(メタデータ) (2020-02-12T23:11:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。