論文の概要: Distilling Object Detectors via Decoupled Features
- arxiv url: http://arxiv.org/abs/2103.14475v1
- Date: Fri, 26 Mar 2021 13:58:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-29 12:40:57.973760
- Title: Distilling Object Detectors via Decoupled Features
- Title(参考訳): デカップリング機能によるオブジェクト検出器の蒸留
- Authors: Jianyuan Guo, Kai Han, Yunhe Wang, Han Wu, Xinghao Chen, Chunjing Xu
and Chang Xu
- Abstract要約: より優れた学生検出器を学習するための,デカップリング機能(DeFeat)を用いた新しい蒸留アルゴリズムを提案する。
バックボーンの異なる様々な検出器を用いた実験により, 提案手法の破れが, 被写体検出の最先端蒸留法を上回ることができることを示した。
- 参考スコア(独自算出の注目度): 69.62967325617632
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge distillation is a widely used paradigm for inheriting information
from a complicated teacher network to a compact student network and maintaining
the strong performance. Different from image classification, object detectors
are much more sophisticated with multiple loss functions in which features that
semantic information rely on are tangled. In this paper, we point out that the
information of features derived from regions excluding objects are also
essential for distilling the student detector, which is usually ignored in
existing approaches. In addition, we elucidate that features from different
regions should be assigned with different importance during distillation. To
this end, we present a novel distillation algorithm via decoupled features
(DeFeat) for learning a better student detector. Specifically, two levels of
decoupled features will be processed for embedding useful information into the
student, i.e., decoupled features from neck and decoupled proposals from
classification head. Extensive experiments on various detectors with different
backbones show that the proposed DeFeat is able to surpass the state-of-the-art
distillation methods for object detection. For example, DeFeat improves
ResNet50 based Faster R-CNN from 37.4% to 40.9% mAP, and improves ResNet50
based RetinaNet from 36.5% to 39.7% mAP on COCO benchmark. Our implementation
is available at https://github.com/ggjy/DeFeat.pytorch.
- Abstract(参考訳): 知識蒸留は、複雑な教師ネットワークからコンパクトな学生ネットワークに情報を継承し、高い性能を維持するために広く使われているパラダイムである。
画像分類と異なり、オブジェクト検出器は、意味情報が依存する特徴が絡み合っている複数の損失関数により、はるかに高度である。
本稿では, 留学生検出器の蒸留には, 対象物以外の領域に由来する特徴の情報も不可欠であり, 既存の手法では無視される点を指摘する。
さらに,蒸留中に異なる領域の特徴を異なる重要性で割り当てるべきであることを解明した。
そこで本研究では,より優れた学生検出器を学習するための脱カップリング機能(defeat)による蒸留アルゴリズムを提案する。
具体的には、学生に有用な情報を埋め込むために、2段階のデカップリング機能、すなわちネックからデカップリングされた機能、そして分類ヘッドからデカップリングされた提案の2段階のデカップリング機能が処理される。
異なるバックボーンを持つ様々な検出器に対する広範囲な実験により、提案された敗北は、物体検出のための最先端の蒸留法を上回ることができることを示した。
例えば、DeFeatはResNet50ベースの高速R-CNNを37.4%から40.9%に改善し、ResNet50ベースのRetinaNetを36.5%から39.7%に改善した。
実装はhttps://github.com/ggjy/defeat.pytorchで利用可能です。
関連論文リスト
- Learning Lightweight Object Detectors via Multi-Teacher Progressive
Distillation [56.053397775016755]
本稿では,教師検出器の知識を学生に段階的に伝達する,知識蒸留への逐次的アプローチを提案する。
私たちの知識を最大限に活用するために、私たちはTransformerベースの教師検出器から、畳み込みベースの学生まで、初めて知識を抽出しました。
論文 参考訳(メタデータ) (2023-08-17T17:17:08Z) - Exploring Inconsistent Knowledge Distillation for Object Detection with
Data Augmentation [66.25738680429463]
物体検出のための知識蒸留(KD)は、教師モデルから知識を伝達することで、コンパクトな検出器を訓練することを目的としている。
教師モデルの反直感的知覚に固有の知識を蒸留することを目的とした,一貫性のない知識蒸留(IKD)を提案する。
本手法は, 1段, 2段, アンカーフリーの物体検出器において, 最先端のKDベースラインより優れる。
論文 参考訳(メタデータ) (2022-09-20T16:36:28Z) - PKD: General Distillation Framework for Object Detectors via Pearson
Correlation Coefficient [18.782520279344553]
この論文は、異種教師検出器によるFPNの優れた特徴が学生の助けとなることを実証的に見出した。
そこで本研究では,教師の関連情報に焦点を合わせるために,ピアソン相関係数を用いた特徴の模倣を提案する。
提案手法は,既存の検出KD法より常に優れており,同質・異質な学生・教師のペアに対しても有効である。
論文 参考訳(メタデータ) (2022-07-05T13:37:34Z) - Focal and Global Knowledge Distillation for Detectors [23.315649744061982]
オブジェクト検出のためのFGD(Focal and Global Distillation)を提案する。
FGDは前景と背景を分離し、生徒は教師の批判的なピクセルやチャンネルに集中せざるを得ない。
提案手法は特徴写像上の損失のみを計算する必要があるため,FGDを様々な検出器に適用することができる。
論文 参考訳(メタデータ) (2021-11-23T13:04:40Z) - Distilling Object Detectors with Feature Richness [13.187669828065554]
大規模なディープモデルは大きな成功を収めていますが、膨大な計算複雑性と大量のストレージ要件により、リソース制限されたデバイスにデプロイすることが大きな課題になります。
モデル圧縮・加速法として、知識蒸留は教師検出器から暗黒の知識を伝達することにより、小型モデルの性能を効果的に向上させる。
本稿では,蒸留時の汎用検出性を向上させる重要な特徴を選択するために,FRS(Feature-Richness Score)法を提案する。
論文 参考訳(メタデータ) (2021-11-01T03:16:06Z) - Instance-Conditional Knowledge Distillation for Object Detection [59.56780046291835]
所望の知識を求めるために,インスタンス条件蒸留フレームワークを提案する。
我々は、観測されたインスタンスを条件情報として使用し、検索プロセスをインスタンス条件の復号プロセスとして定式化する。
論文 参考訳(メタデータ) (2021-10-25T08:23:29Z) - Deep Structured Instance Graph for Distilling Object Detectors [82.16270736573176]
本稿では,検出システム内の情報を利用して,検出知識の蒸留を容易にするための簡単な知識構造を提案する。
我々は,1段と2段の両方の検出器上で,多様な学生-教師ペアによるCOCOオブジェクト検出の課題に対して,新しい最先端の成果を達成した。
論文 参考訳(メタデータ) (2021-09-27T08:26:00Z) - G-DetKD: Towards General Distillation Framework for Object Detectors via
Contrastive and Semantic-guided Feature Imitation [49.421099172544196]
そこで本研究では,すべてのピラミッドレベルにまたがる特徴ペア間のソフトマッチングを自動的に行う,意味誘導型特徴模倣手法を提案する。
また,異なる特徴領域間の関係で符号化された情報を効果的に捉えるために,コントラスト蒸留を導入する。
本手法は,(1)フレームワークのコンポーネントを別々に使用した場合に,既存の検出KD技術よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2021-08-17T07:44:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。