論文の概要: Contrast R-CNN for Continual Learning in Object Detection
- arxiv url: http://arxiv.org/abs/2108.04224v1
- Date: Sun, 11 Jul 2021 14:09:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-15 16:35:57.848088
- Title: Contrast R-CNN for Continual Learning in Object Detection
- Title(参考訳): オブジェクト検出における連続学習のためのコントラストR-CNN
- Authors: Kai Zheng, Cen Chen
- Abstract要約: 本稿では,オブジェクト検出の連続学習手法であるContrast R-CNNを提案する。
本稿ではコントラストR-CNN(Contrast R-CNN)という,オブジェクト検出の連続学習手法を提案する。
- 参考スコア(独自算出の注目度): 13.79299067527118
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The continual learning problem has been widely studied in image
classification, while rare work has been explored in object detection. Some
recent works apply knowledge distillation to constrain the model to retain old
knowledge, but this rigid constraint is detrimental for learning new knowledge.
In our paper, we propose a new scheme for continual learning of object
detection, namely Contrast R-CNN, an approach strikes a balance between
retaining the old knowledge and learning the new knowledge. Furthermore, we
design a Proposal Contrast to eliminate the ambiguity between old and new
instance to make the continual learning more robust. Extensive evaluation on
the PASCAL VOC dataset demonstrates the effectiveness of our approach.
- Abstract(参考訳): 連続学習問題は画像分類において広く研究され、オブジェクト検出において希少な研究がなされている。
最近のいくつかの研究は、古い知識を維持するためにモデルを制約するために知識蒸留を適用するが、この厳格な制約は新しい知識を学ぶために有害である。
本稿では,物体検出の連続学習のための新しい手法,すなわちコントラストr-cnnを提案する。
さらに,従来型と新しいインスタンス間のあいまいさを排除し,継続的な学習をより堅牢にする提案コントラストを設計する。
PASCAL VOCデータセットの大規模評価により,本手法の有効性が示された。
関連論文リスト
- Fine-Grained Knowledge Selection and Restoration for Non-Exemplar Class
Incremental Learning [64.14254712331116]
非典型的なクラスインクリメンタル学習は、過去のトレーニングデータにアクセスすることなく、新しいタスクと古いタスクの両方を学ぶことを目的としている。
本稿では, きめ細かい知識選択と復元のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2023-12-20T02:34:11Z) - SRIL: Selective Regularization for Class-Incremental Learning [5.810252620242912]
クラスインクリメンタルラーニングは、この課題を克服するために、可塑性と安定性のバランスをとる統合モデルを作成することを目的としている。
本稿では,従来の知識を維持しつつ,新たな知識を受け入れる選択正規化手法を提案する。
CIFAR-100, ImageNet-Subset, ImageNet-Full を用いて提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2023-05-09T05:04:35Z) - Adaptively Integrated Knowledge Distillation and Prediction Uncertainty
for Continual Learning [71.43841235954453]
現在のディープラーニングモデルは、新しい知識を継続的に学習するときに、古い知識を破滅的に忘れることに悩まされることが多い。
この問題を軽減する既存の戦略は、古い知識(安定性)の維持と新しい知識(塑性)の学習のトレードオフを解消することが多い。
論文 参考訳(メタデータ) (2023-01-18T05:36:06Z) - Relational Experience Replay: Continual Learning by Adaptively Tuning
Task-wise Relationship [54.73817402934303]
本稿では,2段階の学習フレームワークである経験連続再生(ERR)を提案する。
ERRは、すべてのベースラインの性能を一貫して改善し、現在の最先端の手法を超えることができる。
論文 参考訳(メタデータ) (2021-12-31T12:05:22Z) - Multi-View Correlation Distillation for Incremental Object Detection [12.536640582318949]
我々は,新しいtextbfMulti-textbfView textbfCorrelation textbfDistillation (MVCD) を用いたインクリメンタルオブジェクト検出法を提案する。
論文 参考訳(メタデータ) (2021-07-05T04:36:33Z) - Split-and-Bridge: Adaptable Class Incremental Learning within a Single
Neural Network [0.20305676256390928]
継続的学習は、ディープラーニングコミュニティで大きな問題である。
本稿では,Split-and-Bridgeと呼ばれる新しい連続学習手法を提案する。
論文 参考訳(メタデータ) (2021-07-03T05:51:53Z) - Co$^2$L: Contrastive Continual Learning [69.46643497220586]
近年の自己教師型学習のブレークスルーは、このようなアルゴリズムが視覚的な表現を学習し、見えないタスクにもっとうまく移行できることを示している。
本稿では、連続的な学習と伝達可能な表現の維持に焦点を当てたリハーサルに基づく連続学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-28T06:14:38Z) - Multiband VAE: Latent Space Partitioning for Knowledge Consolidation in
Continual Learning [14.226973149346883]
従来を忘れずに新しいデータサンプルに関する知識を取得することは、継続的な学習の重要な問題である。
本稿では,変分オートエンコーダの潜伏空間の分割に依存する生成モデルにおける教師なし連続的知識統合手法を提案する。
標準連続学習評価ベンチマークに基づいて,本手法を新たな知識統合シナリオで評価し,提案手法が最先端の2倍に向上することを示す。
論文 参考訳(メタデータ) (2021-06-23T06:58:40Z) - Preserving Earlier Knowledge in Continual Learning with the Help of All
Previous Feature Extractors [63.21036904487014]
時間とともに新しい知識の継続的な学習は、インテリジェントシステムがより多くのオブジェクトのクラスを認識するのに望ましい能力の1つである。
これまでに学んだすべての特徴抽出器をインテリジェントモデルに組み込むことで、シンプルで効果的な融合メカニズムを提案します。
複数の分類タスクの実験により,提案手法は従来の知識の忘れを効果的に減らし,最先端の継続的学習性能を達成できることが示されている。
論文 参考訳(メタデータ) (2021-04-28T07:49:24Z) - SID: Incremental Learning for Anchor-Free Object Detection via Selective
and Inter-Related Distillation [16.281712605385316]
増分学習は、ストリーミングデータから新しいタスクを継続的に学習するモデルを必要とする。
新しいタスクでよく訓練されたディープニューラルネットワークの従来の微調整は、古いタスクのパフォーマンスを劇的に低下させる。
SID(Selective and Inter-related Distillation)と呼ばれる新しい漸進的学習パラダイムを提案する。
論文 参考訳(メタデータ) (2020-12-31T04:12:06Z) - Incremental Object Detection via Meta-Learning [77.55310507917012]
本稿では,段階的タスク間の情報を最適に共有するように,モデル勾配を再形成するメタラーニング手法を提案する。
既存のメタ学習法と比較して,本手法はタスク非依存であり,オブジェクト検出のための高容量モデルに新たなクラスやスケールを段階的に追加することができる。
論文 参考訳(メタデータ) (2020-03-17T13:40:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。