論文の概要: Two-Level Residual Distillation based Triple Network for Incremental
Object Detection
- arxiv url: http://arxiv.org/abs/2007.13428v1
- Date: Mon, 27 Jul 2020 11:04:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-06 08:47:06.321520
- Title: Two-Level Residual Distillation based Triple Network for Incremental
Object Detection
- Title(参考訳): インクリメンタルオブジェクト検出のための2レベル残留蒸留に基づくトリプルネットワーク
- Authors: Dongbao Yang, Yu Zhou, Dayan Wu, Can Ma, Fei Yang, Weiping Wang
- Abstract要約: 本稿では,より高速なR-CNNに基づく新しいインクリメンタルオブジェクト検出手法を提案する。
従来の学習知識を忘れることなく、新しいクラスでの漸進的なモデル学習を支援するためのアシスタントとして、古いモデルと残留モデルを使用する三重ネットワークである。
- 参考スコア(独自算出の注目度): 21.725878050355824
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern object detection methods based on convolutional neural network suffer
from severe catastrophic forgetting in learning new classes without original
data. Due to time consumption, storage burden and privacy of old data, it is
inadvisable to train the model from scratch with both old and new data when new
object classes emerge after the model trained. In this paper, we propose a
novel incremental object detector based on Faster R-CNN to continuously learn
from new object classes without using old data. It is a triple network where an
old model and a residual model as assistants for helping the incremental model
learning on new classes without forgetting the previous learned knowledge. To
better maintain the discrimination of features between old and new classes, the
residual model is jointly trained on new classes in the incremental learning
procedure. In addition, a corresponding distillation scheme is designed to
guide the training process, which consists of a two-level residual distillation
loss and a joint classification distillation loss. Extensive experiments on
VOC2007 and COCO are conducted, and the results demonstrate that the proposed
method can effectively learn to incrementally detect objects of new classes,
and the problem of catastrophic forgetting is mitigated in this context.
- Abstract(参考訳): 畳み込みニューラルネットワークに基づく現代の物体検出手法は、オリジナルデータなしで新しいクラスを学習する際、深刻な壊滅的な忘れに苦しむ。
時間消費、ストレージの負担、古いデータのプライバシーのため、モデルのトレーニング後に新しいオブジェクトクラスが出現すると、古いデータと新しいデータの両方でモデルをゼロからトレーニングすることは推奨できない。
本稿では,古いデータを用いずに新しいオブジェクトクラスから連続的に学習する高速r-cnnに基づく新しいインクリメンタルオブジェクト検出器を提案する。
従来の学習知識を忘れることなく、新しいクラスでの漸進的なモデル学習を支援するためのアシスタントとして、古いモデルと残留モデルを使用する三重ネットワークである。
古いクラスと新しいクラスの間の特徴の識別をより良く維持するために、残余モデルはインクリメンタル学習手順で新しいクラスで共同で訓練される。
また、2段階の残留蒸留損失と共同分類蒸留損失からなるトレーニングプロセスの指針として,対応する蒸留方式を設計した。
VOC2007 と COCO に関する大規模な実験を行い,提案手法が新たなクラスオブジェクトの漸進的検出を効果的に学べることを実証した。
関連論文リスト
- BSDP: Brain-inspired Streaming Dual-level Perturbations for Online Open
World Object Detection [31.467501311528498]
私たちは、深層学習モデルを、人々の学習方法をシミュレートすることを目指しています。
既存のOWODアプローチは未知のカテゴリの同定に注意を払う一方で、漸進的な学習も非常に重要である。
本稿では,古い知識を忘れることなく,新しい知識を学習しやすくするために,古いサンプルの二重レベル情報を新しいサンプルの摂動として捉えた。
論文 参考訳(メタデータ) (2024-03-05T04:00:50Z) - Complementary Learning Subnetworks for Parameter-Efficient
Class-Incremental Learning [40.13416912075668]
本稿では,2つの補完学習サブネットワークス間のシナジーを通じて連続的に学習するリハーサルフリーなCILアプローチを提案する。
提案手法は, 精度向上, メモリコスト, トレーニング効率, タスク順序など, 最先端手法と競合する結果が得られる。
論文 参考訳(メタデータ) (2023-06-21T01:43:25Z) - Continual Learning with Bayesian Model based on a Fixed Pre-trained
Feature Extractor [55.9023096444383]
現在のディープラーニングモデルは、新しいクラスを学ぶ際に古い知識を破滅的に忘れることによって特徴づけられる。
人間の脳における新しい知識の学習プロセスに着想を得て,連続学習のためのベイズ生成モデルを提案する。
論文 参考訳(メタデータ) (2022-04-28T08:41:51Z) - FOSTER: Feature Boosting and Compression for Class-Incremental Learning [52.603520403933985]
ディープニューラルネットワークは、新しいカテゴリーを学ぶ際に破滅的な忘れ方に悩まされる。
本稿では,新たなカテゴリを適応的に学習するためのモデルとして,新しい2段階学習パラダイムFOSTERを提案する。
論文 参考訳(メタデータ) (2022-04-10T11:38:33Z) - Online Deep Metric Learning via Mutual Distillation [9.363111089877625]
ディープ・メトリック・ラーニング(Deep metric learning)は、入力データを埋め込み空間に変換することを目的としており、類似したサンプルが近接し、異種サンプルが互いに遠く離れている。
既存のソリューションは、スクラッチからモデルをリトレーニングするか、トレーニング中に古いサンプルをリプレイする必要がある。
本稿では, 複数タスクシナリオの相互蒸留に基づくオンライン深度学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-10T07:24:36Z) - Static-Dynamic Co-Teaching for Class-Incremental 3D Object Detection [71.18882803642526]
ディープラーニングアプローチは、3Dオブジェクト検出タスクにおいて顕著なパフォーマンスを示している。
古いデータを再考することなく、新しいクラスを漸進的に学習するときに、破滅的なパフォーマンス低下に悩まされる。
この「破滅的な忘れ物」現象は、現実世界のシナリオにおける3Dオブジェクト検出アプローチの展開を妨げる。
SDCoTは,新しい静的なコティーチング手法である。
論文 参考訳(メタデータ) (2021-12-14T09:03:41Z) - Bridging Non Co-occurrence with Unlabeled In-the-wild Data for
Incremental Object Detection [56.22467011292147]
物体検出における破滅的忘れを緩和するために,いくつかの漸進的学習法が提案されている。
有効性にもかかわらず、これらの手法は新規クラスのトレーニングデータにラベルのないベースクラスの共起を必要とする。
そこで本研究では,新たな授業の訓練において,欠落した基本クラスが原因で生じる非発生を補うために,未ラベルのインザ・ザ・ワイルドデータを使用することを提案する。
論文 参考訳(メタデータ) (2021-10-28T10:57:25Z) - Multi-View Correlation Distillation for Incremental Object Detection [12.536640582318949]
我々は,新しいtextbfMulti-textbfView textbfCorrelation textbfDistillation (MVCD) を用いたインクリメンタルオブジェクト検出法を提案する。
論文 参考訳(メタデータ) (2021-07-05T04:36:33Z) - Learning Adaptive Embedding Considering Incremental Class [55.21855842960139]
CIL(Class-Incremental Learning)は,未知のクラスを逐次生成するストリーミングデータを用いて,信頼性の高いモデルをトレーニングすることを目的としている。
従来のクローズドセット学習とは異なり、CILには2つの大きな課題がある。
新たなクラスが検出された後、以前のデータ全体を使用して再トレーニングすることなく、モデルを更新する必要がある。
論文 参考訳(メタデータ) (2020-08-31T04:11:24Z) - Incremental Object Detection via Meta-Learning [77.55310507917012]
本稿では,段階的タスク間の情報を最適に共有するように,モデル勾配を再形成するメタラーニング手法を提案する。
既存のメタ学習法と比較して,本手法はタスク非依存であり,オブジェクト検出のための高容量モデルに新たなクラスやスケールを段階的に追加することができる。
論文 参考訳(メタデータ) (2020-03-17T13:40:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。