論文の概要: General Instance Distillation for Object Detection
- arxiv url: http://arxiv.org/abs/2103.02340v1
- Date: Wed, 3 Mar 2021 11:41:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-04 15:00:25.873865
- Title: General Instance Distillation for Object Detection
- Title(参考訳): 物体検出のための一般例蒸留
- Authors: Xing Dai, Zeren Jiang, Zhao Wu, Yiping Bao, Zhicheng Wang, Si Liu,
Erjin Zhou
- Abstract要約: RetinaNet with ResNet-50は、データセット上のGIDによるmAPで39.1%を達成し、ベースライン36.2%を2.9%上回り、さらに38.1%APを持つResNet-101ベースの教師モデルよりも優れています。
- 参考スコア(独自算出の注目度): 12.720908566642812
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, knowledge distillation has been proved to be an effective
solution for model compression. This approach can make lightweight student
models acquire the knowledge extracted from cumbersome teacher models. However,
previous distillation methods of detection have weak generalization for
different detection frameworks and rely heavily on ground truth (GT), ignoring
the valuable relation information between instances. Thus, we propose a novel
distillation method for detection tasks based on discriminative instances
without considering the positive or negative distinguished by GT, which is
called general instance distillation (GID). Our approach contains a general
instance selection module (GISM) to make full use of feature-based,
relation-based and response-based knowledge for distillation. Extensive results
demonstrate that the student model achieves significant AP improvement and even
outperforms the teacher in various detection frameworks. Specifically,
RetinaNet with ResNet-50 achieves 39.1% in mAP with GID on COCO dataset, which
surpasses the baseline 36.2% by 2.9%, and even better than the ResNet-101 based
teacher model with 38.1% AP.
- Abstract(参考訳): 近年、知識蒸留はモデル圧縮の効果的なソリューションであることが証明されています。
このアプローチにより、軽量な生徒モデルが面倒な教師モデルから抽出された知識を獲得できます。
しかし, 従来の蒸留法では, 異なる検出手法の一般化が弱く, 地底真理(GT)に強く依存しており, インスタンス間の価値ある関係情報を無視している。
そこで本研究では,一般インスタンス蒸留(GID)と呼ばれるGTによって区別される正または負の区別を考慮せずに,識別インスタンスに基づくタスク検出のための新しい蒸留法を提案する。
提案手法は, 汎用インスタンス選択モジュール (GISM) を用いて, 蒸留における特徴ベース, 関係ベース, 応答ベース知識をフル活用する。
広範な結果から,生徒モデルがap改善を達成し,各種検出フレームワークにおいて教師よりも優れていた。
具体的には、RetinaNet with ResNet-50は、COCOデータセット上のGIDでmAPの39.1%を達成し、ベースライン36.2%を2.9%上回り、さらに38.1%APのResNet-101ベースの教師モデルよりも優れています。
関連論文リスト
- Learning Lightweight Object Detectors via Multi-Teacher Progressive
Distillation [56.053397775016755]
本稿では,教師検出器の知識を学生に段階的に伝達する,知識蒸留への逐次的アプローチを提案する。
私たちの知識を最大限に活用するために、私たちはTransformerベースの教師検出器から、畳み込みベースの学生まで、初めて知識を抽出しました。
論文 参考訳(メタデータ) (2023-08-17T17:17:08Z) - Class-aware Information for Logit-based Knowledge Distillation [16.634819319915923]
そこで本研究では,ロジット蒸留をインスタンスレベルとクラスレベルの両方で拡張する,クラス対応ロジット知識蒸留法を提案する。
CLKDにより、教師モデルからより高度な意味情報を模倣し、蒸留性能を向上させることができる。
論文 参考訳(メタデータ) (2022-11-27T09:27:50Z) - Prediction-Guided Distillation for Dense Object Detection [7.5320132424481505]
そこで本研究では,教師の高検出性能を担っているのは,接地路境界ボックス内のごく少数の機能のみであることを示す。
教師のこれらの重要な予測領域に蒸留に焦点を当てた予測誘導蒸留(PGD)を提案する。
提案手法は, 先進的な1段階検出アーキテクチャにおいて, 最先端KDベースラインよりも優れている。
論文 参考訳(メタデータ) (2022-03-10T16:46:05Z) - Adaptive Instance Distillation for Object Detection in Autonomous
Driving [3.236217153362305]
本稿では,教師の知識を学生に選択的に付与し,知識蒸留の性能を向上させるための適応型インスタンス蒸留(AID)を提案する。
また,AIDは教師モデルの性能向上に有効であることが示された。
論文 参考訳(メタデータ) (2022-01-26T18:06:33Z) - Instance-Conditional Knowledge Distillation for Object Detection [59.56780046291835]
所望の知識を求めるために,インスタンス条件蒸留フレームワークを提案する。
我々は、観測されたインスタンスを条件情報として使用し、検索プロセスをインスタンス条件の復号プロセスとして定式化する。
論文 参考訳(メタデータ) (2021-10-25T08:23:29Z) - LGD: Label-guided Self-distillation for Object Detection [59.9972914042281]
我々はLGD(Label-Guided Self-Distillation)と呼ばれる汎用物体検出のための最初の自己蒸留フレームワークを提案する。
本フレームワークは, 学習知識を得るために, スパースラベル-外観符号化, オブジェクト間関係適応, オブジェクト内知識マッピングを含む。
従来の教師ベースのFGFIと比較すると、LGDは予習された教師を必要とせず、本質的な学生学習よりも51%低い訓練コストで性能が向上する。
論文 参考訳(メタデータ) (2021-09-23T16:55:01Z) - G-DetKD: Towards General Distillation Framework for Object Detectors via
Contrastive and Semantic-guided Feature Imitation [49.421099172544196]
そこで本研究では,すべてのピラミッドレベルにまたがる特徴ペア間のソフトマッチングを自動的に行う,意味誘導型特徴模倣手法を提案する。
また,異なる特徴領域間の関係で符号化された情報を効果的に捉えるために,コントラスト蒸留を導入する。
本手法は,(1)フレームワークのコンポーネントを別々に使用した場合に,既存の検出KD技術よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2021-08-17T07:44:27Z) - Distilling Object Detectors via Decoupled Features [69.62967325617632]
より優れた学生検出器を学習するための,デカップリング機能(DeFeat)を用いた新しい蒸留アルゴリズムを提案する。
バックボーンの異なる様々な検出器を用いた実験により, 提案手法の破れが, 被写体検出の最先端蒸留法を上回ることができることを示した。
論文 参考訳(メタデータ) (2021-03-26T13:58:49Z) - Distilling Object Detectors with Task Adaptive Regularization [97.52935611385179]
現在の最先端のオブジェクト検出器は高い計算コストを犠牲にしており、ローエンドデバイスへのデプロイが困難である。
より大規模な教師モデルから知識を伝達することで、より小さな学生ネットワークを訓練することを目的とした知識蒸留は、モデル小型化のための有望な解決策の1つである。
論文 参考訳(メタデータ) (2020-06-23T15:58:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。