論文の概要: Response-based Distillation for Incremental Object Detection
- arxiv url: http://arxiv.org/abs/2110.13471v1
- Date: Tue, 26 Oct 2021 08:07:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-28 02:36:35.044267
- Title: Response-based Distillation for Incremental Object Detection
- Title(参考訳): インクリメンタル物体検出のための応答型蒸留
- Authors: Tao Feng, Mang Wang
- Abstract要約: 従来の物体検出は漸進的な学習には不適当である。
新しいデータのみを用いて、よく訓練された検出モデルを直接微調整することで、破滅的な忘れを招きます。
本研究では,検出境界ボックスからの学習応答と分類予測に着目した完全応答に基づくインクリメンタル蒸留法を提案する。
- 参考スコア(独自算出の注目度): 2.337183337110597
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditional object detection are ill-equipped for incremental learning.
However, fine-tuning directly on a well-trained detection model with only new
data will leads to catastrophic forgetting. Knowledge distillation is a
straightforward way to mitigate catastrophic forgetting. In Incremental Object
Detection (IOD), previous work mainly focuses on feature-level knowledge
distillation, but the different response of detector has not been fully
explored yet. In this paper, we propose a fully response-based incremental
distillation method focusing on learning response from detection bounding boxes
and classification predictions. Firstly, our method transferring category
knowledge while equipping student model with the ability to retain localization
knowledge during incremental learning. In addition, we further evaluate the
qualities of all locations and provides valuable response by adaptive
pseudo-label selection (APS) strategies. Finally, we elucidate that knowledge
from different responses should be assigned with different importance during
incremental distillation. Extensive experiments conducted on MS COCO
demonstrate significant advantages of our method, which substantially narrow
the performance gap towards full training.
- Abstract(参考訳): 従来のオブジェクト検出は、インクリメンタルな学習には不十分である。
しかし、新しいデータのみを訓練された検出モデルで直接微調整すると、破滅的な忘れることになる。
知識蒸留は壊滅的な忘れを和らげる簡単な方法である。
インクリメンタルオブジェクト検出(iod)では、従来の研究は主に機能レベルの知識の蒸留に焦点を当てているが、検出器の異なる反応はまだ完全には検討されていない。
本稿では,検出バウンディングボックスからの学習応答と分類予測に着目した完全応答型増分蒸留法を提案する。
まず,インクリメンタル学習中に,学習者モデルに局所的知識を保持する能力を持たせながらカテゴリ知識を伝達する手法を提案する。
さらに,すべての場所の特性をさらに評価し,aps(adaptive pseudo-label selection)戦略による有用な応答を提供する。
最後に,増分蒸留中に異なる応答からの知識を異なる重要性で割り当てるべきであることを解明した。
また,MS COCOを用いた大規模実験により,本手法の有意な利点が示され,フルトレーニングに向けた性能ギャップが著しく狭められた。
関連論文リスト
- Task Integration Distillation for Object Detectors [2.974025533366946]
本稿では,分類作業と回帰作業の両方に対処する知識蒸留法を提案する。
検出器の2つのサブタスクの出力に基づいて特徴の重要性を評価する。
この方法は、モデルの学習現実に関するバイアス付き予測の問題を効果的に防止する。
論文 参考訳(メタデータ) (2024-04-02T07:08:15Z) - Class-aware Information for Logit-based Knowledge Distillation [16.634819319915923]
そこで本研究では,ロジット蒸留をインスタンスレベルとクラスレベルの両方で拡張する,クラス対応ロジット知識蒸留法を提案する。
CLKDにより、教師モデルからより高度な意味情報を模倣し、蒸留性能を向上させることができる。
論文 参考訳(メタデータ) (2022-11-27T09:27:50Z) - Exploring Inconsistent Knowledge Distillation for Object Detection with
Data Augmentation [66.25738680429463]
物体検出のための知識蒸留(KD)は、教師モデルから知識を伝達することで、コンパクトな検出器を訓練することを目的としている。
教師モデルの反直感的知覚に固有の知識を蒸留することを目的とした,一貫性のない知識蒸留(IKD)を提案する。
本手法は, 1段, 2段, アンカーフリーの物体検出器において, 最先端のKDベースラインより優れる。
論文 参考訳(メタデータ) (2022-09-20T16:36:28Z) - Localization Distillation for Object Detection [134.12664548771534]
物体検出のための従来の知識蒸留法(KD)は、分類ロジットを模倣するのではなく、主に特徴模倣に焦点を当てている。
本稿では,教師から生徒に効率よくローカライズ知識を伝達できる新しいローカライズ蒸留法を提案する。
われわれは,ロジット模倣が特徴模倣より優れることを示すとともに,ロージット模倣が何年もの間,ロージット模倣が不十分であった理由として,ロージット蒸留が欠如していることが重要である。
論文 参考訳(メタデータ) (2022-04-12T17:14:34Z) - Overcoming Catastrophic Forgetting in Incremental Object Detection via
Elastic Response Distillation [4.846235640334886]
従来の物体検出器は漸進的な学習には不適当である。
新しいデータのみを用いて、よく訓練された検出モデルを直接微調整することで、破滅的な忘れを招きます。
弾性応答蒸留(ERD)と呼ばれる応答型漸進蒸留法を提案する。
論文 参考訳(メタデータ) (2022-04-05T11:57:43Z) - Label Assignment Distillation for Object Detection [0.0]
我々は,オブジェクト検出におけるラベル割り当てに着目した,単純だが効果的な知識蒸留手法を考案した。
提案手法は, MSCOCO 2017ベンチマークで有望な結果を示す。
論文 参考訳(メタデータ) (2021-09-16T10:11:58Z) - Towards Reducing Labeling Cost in Deep Object Detection [61.010693873330446]
本稿では,検知器の不確実性と頑健性の両方を考慮した,アクティブラーニングのための統一的なフレームワークを提案する。
提案手法は, 確率分布のドリフトを抑えながら, 極めて確実な予測を擬似ラベル化することができる。
論文 参考訳(メタデータ) (2021-06-22T16:53:09Z) - Distilling Image Classifiers in Object Detectors [81.63849985128527]
本研究では, 物体検出の事例について検討し, 標準検出器-検出器蒸留法に従わず, 分類器-検出器間知識伝達フレームワークを導入する。
特に,検知器の認識精度とローカライゼーション性能を両立させるため,分類教師を利用する手法を提案する。
論文 参考訳(メタデータ) (2021-06-09T16:50:10Z) - Deep Semi-supervised Knowledge Distillation for Overlapping Cervical
Cell Instance Segmentation [54.49894381464853]
本稿では, ラベル付きデータとラベルなしデータの両方を, 知識蒸留による精度向上に活用することを提案する。
摂動に敏感なサンプルマイニングを用いたマスク誘導型平均教師フレームワークを提案する。
実験の結果,ラベル付きデータのみから学習した教師付き手法と比較して,提案手法は性能を著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-21T13:27:09Z) - Incremental Object Detection via Meta-Learning [77.55310507917012]
本稿では,段階的タスク間の情報を最適に共有するように,モデル勾配を再形成するメタラーニング手法を提案する。
既存のメタ学習法と比較して,本手法はタスク非依存であり,オブジェクト検出のための高容量モデルに新たなクラスやスケールを段階的に追加することができる。
論文 参考訳(メタデータ) (2020-03-17T13:40:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。