論文の概要: LGD: Label-guided Self-distillation for Object Detection
- arxiv url: http://arxiv.org/abs/2109.11496v1
- Date: Thu, 23 Sep 2021 16:55:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-24 14:58:16.011477
- Title: LGD: Label-guided Self-distillation for Object Detection
- Title(参考訳): LGD:ラベル誘導型自己蒸留による物体検出
- Authors: Peizhen Zhang, Zijian Kang, Tong Yang, Xiangyu Zhang, Nanning Zheng,
Jian Sun
- Abstract要約: 我々はLGD(Label-Guided Self-Distillation)と呼ばれる汎用物体検出のための最初の自己蒸留フレームワークを提案する。
本フレームワークは, 学習知識を得るために, スパースラベル-外観符号化, オブジェクト間関係適応, オブジェクト内知識マッピングを含む。
従来の教師ベースのFGFIと比較すると、LGDは予習された教師を必要とせず、本質的な学生学習よりも51%低い訓練コストで性能が向上する。
- 参考スコア(独自算出の注目度): 59.9972914042281
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose the first self-distillation framework for general
object detection, termed LGD (Label-Guided self-Distillation). Previous studies
rely on a strong pretrained teacher to provide instructive knowledge for
distillation. However, this could be unavailable in real-world scenarios.
Instead, we generate an instructive knowledge by inter-and-intra relation
modeling among objects, requiring only student representations and regular
labels. In detail, our framework involves sparse label-appearance encoding,
inter-object relation adaptation and intra-object knowledge mapping to obtain
the instructive knowledge. Modules in LGD are trained end-to-end with student
detector and are discarded in inference. Empirically, LGD obtains decent
results on various detectors, datasets, and extensive task like instance
segmentation. For example in MS-COCO dataset, LGD improves RetinaNet with
ResNet-50 under 2x single-scale training from 36.2% to 39.0% mAP (+ 2.8%). For
much stronger detectors like FCOS with ResNeXt-101 DCN v2 under 2x multi-scale
training (46.1%), LGD achieves 47.9% (+ 1.8%). For pedestrian detection in
CrowdHuman dataset, LGD boosts mMR by 2.3% for Faster R-CNN with ResNet-50.
Compared with a classical teacher-based method FGFI, LGD not only performs
better without requiring pretrained teacher but also with 51% lower training
cost beyond inherent student learning.
- Abstract(参考訳): 本稿では,LGD(Label-Guided Self-Distillation)と呼ばれる汎用オブジェクト検出のための最初の自己蒸留フレームワークを提案する。
以前の研究では、蒸留の指導的知識を提供するために、強い事前教育を受けた教師に頼っていた。
しかし、これは現実世界では利用できない。
その代わり、オブジェクト間の相互関係モデリングによって指示的知識を生成し、学生表現と正規ラベルのみを必要とする。
詳細は,ラベル出現エンコーディングのスパース,オブジェクト間関係適応,オブジェクト内知識マッピングを用いて指導的知識を得る。
LGDのモジュールは、学生検出器でエンドツーエンドに訓練され、推論で破棄される。
経験的に、lgdは様々な検出器、データセット、およびインスタンスセグメンテーションのような広範囲なタスクで適切な結果を得る。
例えば、MS-COCOデータセットでは、LGDはResNet-50でRetinaNetを36.2%から39.0% mAP (+ 2.8%)に改善している。
ResNeXt-101 DCN v2 の ResNeXt-101 DCN v2 (46.1%) のような強力な検出器では、LGD は47.9% (+ 1.8%) に達する。
CrowdHumanデータセットの歩行者検出では、LGDはResNet-50でより高速なR-CNNでmMRを2.3%向上させる。
従来の教師ベースのFGFIと比較すると、LGDは予習された教師を必要とせず、本質的な学生学習よりも51%低い訓練コストで性能が向上する。
関連論文リスト
- A Teacher-Free Graph Knowledge Distillation Framework with Dual
Self-Distillation [58.813991312803246]
本稿では,教師モデルやGNNを必要としない教師自由グラフ自己蒸留(TGS)フレームワークを提案する。
TGSは、トレーニングにおけるグラフトポロジの認識の利点を享受しているが、推論におけるデータ依存から解放されている。
論文 参考訳(メタデータ) (2024-03-06T05:52:13Z) - Augmentation-Free Dense Contrastive Knowledge Distillation for Efficient
Semantic Segmentation [16.957139277317005]
Af-DCD(Augmentation-free Dense Contrastive Knowledge Distillation)は、新しいコントラスト蒸留学習パラダイムである。
Af-DCDはセマンティックセグメンテーションのためのコンパクトで正確なディープニューラルネットワークを訓練する。
論文 参考訳(メタデータ) (2023-12-07T09:37:28Z) - Learning Lightweight Object Detectors via Multi-Teacher Progressive
Distillation [56.053397775016755]
本稿では,教師検出器の知識を学生に段階的に伝達する,知識蒸留への逐次的アプローチを提案する。
私たちの知識を最大限に活用するために、私たちはTransformerベースの教師検出器から、畳み込みベースの学生まで、初めて知識を抽出しました。
論文 参考訳(メタデータ) (2023-08-17T17:17:08Z) - Benchmarking Deep Learning Frameworks for Automated Diagnosis of Ocular
Toxoplasmosis: A Comprehensive Approach to Classification and Segmentation [1.3701366534590498]
眼トキソプラズマ症(Ocular Toxoplasmosis,OT)は、眼疾患を引き起こすT. gondiiによって引き起こされる一般的な眼感染症である。
本研究は、DL技術を活用し、安価で自動化され、使いやすく、正確な診断方法を開発しようとしている将来の研究者のためのガイドを提供する。
論文 参考訳(メタデータ) (2023-05-18T13:42:15Z) - Alexa Teacher Model: Pretraining and Distilling Multi-Billion-Parameter
Encoders for Natural Language Understanding Systems [63.713297451300086]
本研究では,700Mから9.3Bまでの非埋め込みパラメータ数を持つ事前学習エンコーダの大規模実験結果について述べる。
その後、17M-170Mパラメータからより小さなモデルに蒸留し、仮想アシスタントシステムの自然言語理解(NLU)コンポーネントに応用した。
論文 参考訳(メタデータ) (2022-06-15T20:44:23Z) - Prediction-Guided Distillation for Dense Object Detection [7.5320132424481505]
そこで本研究では,教師の高検出性能を担っているのは,接地路境界ボックス内のごく少数の機能のみであることを示す。
教師のこれらの重要な予測領域に蒸留に焦点を当てた予測誘導蒸留(PGD)を提案する。
提案手法は, 先進的な1段階検出アーキテクチャにおいて, 最先端KDベースラインよりも優れている。
論文 参考訳(メタデータ) (2022-03-10T16:46:05Z) - G-DetKD: Towards General Distillation Framework for Object Detectors via
Contrastive and Semantic-guided Feature Imitation [49.421099172544196]
そこで本研究では,すべてのピラミッドレベルにまたがる特徴ペア間のソフトマッチングを自動的に行う,意味誘導型特徴模倣手法を提案する。
また,異なる特徴領域間の関係で符号化された情報を効果的に捉えるために,コントラスト蒸留を導入する。
本手法は,(1)フレームワークのコンポーネントを別々に使用した場合に,既存の検出KD技術よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2021-08-17T07:44:27Z) - General Instance Distillation for Object Detection [12.720908566642812]
RetinaNet with ResNet-50は、データセット上のGIDによるmAPで39.1%を達成し、ベースライン36.2%を2.9%上回り、さらに38.1%APを持つResNet-101ベースの教師モデルよりも優れています。
論文 参考訳(メタデータ) (2021-03-03T11:41:26Z) - Distilling Object Detectors with Task Adaptive Regularization [97.52935611385179]
現在の最先端のオブジェクト検出器は高い計算コストを犠牲にしており、ローエンドデバイスへのデプロイが困難である。
より大規模な教師モデルから知識を伝達することで、より小さな学生ネットワークを訓練することを目的とした知識蒸留は、モデル小型化のための有望な解決策の1つである。
論文 参考訳(メタデータ) (2020-06-23T15:58:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。