論文の概要: Task Integration Distillation for Object Detectors
- arxiv url: http://arxiv.org/abs/2404.01699v1
- Date: Tue, 2 Apr 2024 07:08:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-03 17:38:25.640688
- Title: Task Integration Distillation for Object Detectors
- Title(参考訳): オブジェクト検出器のタスク統合蒸留
- Authors: Hai Su, ZhenWen Jian, Songsen Yu,
- Abstract要約: 本稿では,分類作業と回帰作業の両方に対処する知識蒸留法を提案する。
検出器の2つのサブタスクの出力に基づいて特徴の重要性を評価する。
この方法は、モデルの学習現実に関するバイアス付き予測の問題を効果的に防止する。
- 参考スコア(独自算出の注目度): 2.974025533366946
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge distillation is a widely adopted technique for model lightening. However, the performance of most knowledge distillation methods in the domain of object detection is not satisfactory. Typically, knowledge distillation approaches consider only the classification task among the two sub-tasks of an object detector, largely overlooking the regression task. This oversight leads to a partial understanding of the object detector's comprehensive task, resulting in skewed estimations and potentially adverse effects. Therefore, we propose a knowledge distillation method that addresses both the classification and regression tasks, incorporating a task significance strategy. By evaluating the importance of features based on the output of the detector's two sub-tasks, our approach ensures a balanced consideration of both classification and regression tasks in object detection. Drawing inspiration from real-world teaching processes and the definition of learning condition, we introduce a method that focuses on both key and weak areas. By assessing the value of features for knowledge distillation based on their importance differences, we accurately capture the current model's learning situation. This method effectively prevents the issue of biased predictions about the model's learning reality caused by an incomplete utilization of the detector's outputs.
- Abstract(参考訳): 知識蒸留は、モデルライティングに広く採用されている技術である。
しかし, 対象検出領域におけるほとんどの知識蒸留法の性能は不十分である。
通常、知識蒸留法では、物体検出器の2つのサブタスクの分類タスクのみを考慮しており、主に回帰タスクを見下ろしている。
この監視は、対象検出器の包括的なタスクを部分的に理解し、歪んだ推定と潜在的に有害な影響をもたらす。
そこで本研究では,課題重要戦略を取り入れ,分類課題と回帰課題の両方に対処する知識蒸留手法を提案する。
検出器の2つのサブタスクの出力に基づいて特徴量の重要性を評価することにより,オブジェクト検出における分類タスクと回帰タスクの両方について,バランスよく検討する。
実世界の教育プロセスと学習条件の定義からインスピレーションを得た上で,鍵領域と弱領域の両方に焦点を当てた手法を提案する。
知識蒸留における特徴量の価値を,その重要性の違いに基づいて評価することにより,現在のモデルの学習状況を正確に把握する。
本手法は,検出器の出力の不完全利用に起因する学習現実に関するバイアス予測の問題を効果的に防止する。
関連論文リスト
- Domain-invariant Progressive Knowledge Distillation for UAV-based Object Detection [13.255646312416532]
UAV-ODのための新しい知識蒸留フレームワークを提案する。
具体的には, プログレッシブ蒸留法により, 教師モデルと学生モデルの特徴ギャップを緩和する。
学生モデルの知識受容効率を高めるために,対象物に関連する特徴を抽出する新たな特徴アライメント法が提供される。
論文 参考訳(メタデータ) (2024-08-21T08:05:03Z) - Teaching with Uncertainty: Unleashing the Potential of Knowledge Distillation in Object Detection [47.0507287491627]
本稿では,物体検出のための知識の不確実性を考慮した特徴量に基づく蒸留パラダイムを提案する。
モンテカルロのドロップアウト手法を利用して,学生モデルの学習過程に知識の不確実性を導入する。
本手法は,複雑な構造や計算資源を必要とせずに,KDプロセス中に効果的に機能する。
論文 参考訳(メタデータ) (2024-06-11T06:51:02Z) - Object-centric Cross-modal Feature Distillation for Event-based Object
Detection [87.50272918262361]
RGB検出器は、イベントデータのばらつきと視覚的詳細の欠如により、イベントベースの検出器よりも優れている。
これら2つのモード間の性能ギャップを縮めるための新しい知識蒸留手法を開発した。
対象中心蒸留により,イベントベースの学生物体検出装置の性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-11-09T16:33:08Z) - Knowledge Distillation Meets Open-Set Semi-Supervised Learning [69.21139647218456]
本研究では,事前学習した教師から対象学生へ,表現的知識を意味的に蒸留する新しいモデル名(bfem shortname)を提案する。
問題レベルでは、これは知識蒸留とオープンセット半教師付き学習(SSL)との興味深い関係を確立する。
我々のショートネームは、粗い物体分類と微妙な顔認識タスクの両方において、最先端の知識蒸留法よりもかなり優れている。
論文 参考訳(メタデータ) (2022-05-13T15:15:27Z) - Localization Distillation for Object Detection [134.12664548771534]
物体検出のための従来の知識蒸留法(KD)は、分類ロジットを模倣するのではなく、主に特徴模倣に焦点を当てている。
本稿では,教師から生徒に効率よくローカライズ知識を伝達できる新しいローカライズ蒸留法を提案する。
われわれは,ロジット模倣が特徴模倣より優れることを示すとともに,ロージット模倣が何年もの間,ロージット模倣が不十分であった理由として,ロージット蒸留が欠如していることが重要である。
論文 参考訳(メタデータ) (2022-04-12T17:14:34Z) - Re-examining Distillation For Continual Object Detection [33.95470797472666]
我々は、なぜオブジェクト検出モデルが破滅的に忘れるのかを徹底的に分析する。
我々は,2段階ネットワークにおける蒸留に基づくアプローチに注目した。
提案手法が地域提案ネットワークに有効であることは明らかだが,教師の予測に過度に自信を持てば,学生モデルによる分類ヘッドの効果的な学習が妨げられる。
論文 参考訳(メタデータ) (2022-04-04T11:50:54Z) - Response-based Distillation for Incremental Object Detection [2.337183337110597]
従来の物体検出は漸進的な学習には不適当である。
新しいデータのみを用いて、よく訓練された検出モデルを直接微調整することで、破滅的な忘れを招きます。
本研究では,検出境界ボックスからの学習応答と分類予測に着目した完全応答に基づくインクリメンタル蒸留法を提案する。
論文 参考訳(メタデータ) (2021-10-26T08:07:55Z) - Label Assignment Distillation for Object Detection [0.0]
我々は,オブジェクト検出におけるラベル割り当てに着目した,単純だが効果的な知識蒸留手法を考案した。
提案手法は, MSCOCO 2017ベンチマークで有望な結果を示す。
論文 参考訳(メタデータ) (2021-09-16T10:11:58Z) - Distilling Image Classifiers in Object Detectors [81.63849985128527]
本研究では, 物体検出の事例について検討し, 標準検出器-検出器蒸留法に従わず, 分類器-検出器間知識伝達フレームワークを導入する。
特に,検知器の認識精度とローカライゼーション性能を両立させるため,分類教師を利用する手法を提案する。
論文 参考訳(メタデータ) (2021-06-09T16:50:10Z) - Incremental Object Detection via Meta-Learning [77.55310507917012]
本稿では,段階的タスク間の情報を最適に共有するように,モデル勾配を再形成するメタラーニング手法を提案する。
既存のメタ学習法と比較して,本手法はタスク非依存であり,オブジェクト検出のための高容量モデルに新たなクラスやスケールを段階的に追加することができる。
論文 参考訳(メタデータ) (2020-03-17T13:40:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。