論文の概要: Distilling Image Classifiers in Object Detectors
- arxiv url: http://arxiv.org/abs/2106.05209v1
- Date: Wed, 9 Jun 2021 16:50:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-10 18:35:29.754896
- Title: Distilling Image Classifiers in Object Detectors
- Title(参考訳): 物体検出器における蒸留像分類器
- Authors: Shuxuan Guo and Jose M. Alvarez and Mathieu Salzmann
- Abstract要約: 本研究では, 物体検出の事例について検討し, 標準検出器-検出器蒸留法に従わず, 分類器-検出器間知識伝達フレームワークを導入する。
特に,検知器の認識精度とローカライゼーション性能を両立させるため,分類教師を利用する手法を提案する。
- 参考スコア(独自算出の注目度): 81.63849985128527
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Knowledge distillation constitutes a simple yet effective way to improve the
performance of a compact student network by exploiting the knowledge of a more
powerful teacher. Nevertheless, the knowledge distillation literature remains
limited to the scenario where the student and the teacher tackle the same task.
Here, we investigate the problem of transferring knowledge not only across
architectures but also across tasks. To this end, we study the case of object
detection and, instead of following the standard detector-to-detector
distillation approach, introduce a classifier-to-detector knowledge transfer
framework. In particular, we propose strategies to exploit the classification
teacher to improve both the detector's recognition accuracy and localization
performance. Our experiments on several detectors with different backbones
demonstrate the effectiveness of our approach, allowing us to outperform the
state-of-the-art detector-to-detector distillation methods.
- Abstract(参考訳): 知識蒸留は、より強力な教師の知識を活用することで、コンパクトな学生ネットワークの性能を向上させるためのシンプルで効果的な方法である。
それにもかかわらず、知識蒸留文学は、生徒と教師が同じ課題に取り組むシナリオに限定されている。
本稿では,アーキテクチャだけでなくタスク間での知識伝達の問題について検討する。
そこで本研究では,物体検出の事例について検討し,標準検出器-検出器蒸留法に従わず,分類器-検出器間知識伝達フレームワークを導入する。
特に, 分類教師を活用して, 検出者の認識精度と位置推定性能を向上させる手法を提案する。
バックボーンの異なるいくつかの検出器に対する実験は、我々のアプローチの有効性を実証し、最先端の検出器対検出器蒸留法より優れていることを示した。
関連論文リスト
- Task Integration Distillation for Object Detectors [2.974025533366946]
本稿では,分類作業と回帰作業の両方に対処する知識蒸留法を提案する。
検出器の2つのサブタスクの出力に基づいて特徴の重要性を評価する。
この方法は、モデルの学習現実に関するバイアス付き予測の問題を効果的に防止する。
論文 参考訳(メタデータ) (2024-04-02T07:08:15Z) - Efficient Object Detection in Optical Remote Sensing Imagery via
Attention-based Feature Distillation [29.821082433621868]
本研究では,物体検出のための注意型特徴蒸留(AFD)を提案する。
本稿では,背景要素と前景要素を効果的に区別するマルチインスタンスアテンション機構を提案する。
AFDは、他の最先端モデルの性能を効率よく達成する。
論文 参考訳(メタデータ) (2023-10-28T11:15:37Z) - Learning Lightweight Object Detectors via Multi-Teacher Progressive
Distillation [56.053397775016755]
本稿では,教師検出器の知識を学生に段階的に伝達する,知識蒸留への逐次的アプローチを提案する。
私たちの知識を最大限に活用するために、私たちはTransformerベースの教師検出器から、畳み込みベースの学生まで、初めて知識を抽出しました。
論文 参考訳(メタデータ) (2023-08-17T17:17:08Z) - Exploring Inconsistent Knowledge Distillation for Object Detection with
Data Augmentation [66.25738680429463]
物体検出のための知識蒸留(KD)は、教師モデルから知識を伝達することで、コンパクトな検出器を訓練することを目的としている。
教師モデルの反直感的知覚に固有の知識を蒸留することを目的とした,一貫性のない知識蒸留(IKD)を提案する。
本手法は, 1段, 2段, アンカーフリーの物体検出器において, 最先端のKDベースラインより優れる。
論文 参考訳(メタデータ) (2022-09-20T16:36:28Z) - Open-Vocabulary One-Stage Detection with Hierarchical Visual-Language
Knowledge Distillation [36.79599282372021]
開語彙1段階検出のための階層型視覚言語知識蒸留法,すなわちHierKDを提案する。
我々の手法は、前回の最も優れた1段検出器の11.9%と6.7%のAP_50$ゲインをはるかに上回っている。
論文 参考訳(メタデータ) (2022-03-20T16:31:49Z) - Response-based Distillation for Incremental Object Detection [2.337183337110597]
従来の物体検出は漸進的な学習には不適当である。
新しいデータのみを用いて、よく訓練された検出モデルを直接微調整することで、破滅的な忘れを招きます。
本研究では,検出境界ボックスからの学習応答と分類予測に着目した完全応答に基づくインクリメンタル蒸留法を提案する。
論文 参考訳(メタデータ) (2021-10-26T08:07:55Z) - Label Assignment Distillation for Object Detection [0.0]
我々は,オブジェクト検出におけるラベル割り当てに着目した,単純だが効果的な知識蒸留手法を考案した。
提案手法は, MSCOCO 2017ベンチマークで有望な結果を示す。
論文 参考訳(メタデータ) (2021-09-16T10:11:58Z) - Distilling Knowledge via Knowledge Review [69.15050871776552]
教師と学生のネットワーク間の接続経路のクロスレベル要因を研究し、その大きな重要性を明らかにします。
知識蒸留において初めて, クロスステージ接続経路が提案されている。
最終的に設計されたネストでコンパクトなフレームワークは、無視できるオーバーヘッドを必要とし、さまざまなタスクで他のメソッドよりも優れています。
論文 参考訳(メタデータ) (2021-04-19T04:36:24Z) - Robust and Accurate Object Detection via Adversarial Learning [111.36192453882195]
この研究は、逆の例を探索することで、物体検出器の微調整段階を補強する。
提案手法は,オブジェクト検出ベンチマークにおいて,最先端のEfficientDetsの性能を+1.1mAP向上させる。
論文 参考訳(メタデータ) (2021-03-23T19:45:26Z) - Knowledge Distillation Meets Self-Supervision [109.6400639148393]
知識蒸留では、教師ネットワークから「暗黒の知識」を抽出し、学生ネットワークの学習を指導する。
一見異なる自己超越的なタスクが、単純だが強力なソリューションとして機能することを示します。
これらの自己超越信号の類似性を補助的タスクとして活用することにより、隠された情報を教師から生徒に効果的に転送することができる。
論文 参考訳(メタデータ) (2020-06-12T12:18:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。