論文の概要: Revisiting Knowledge Distillation for Object Detection
- arxiv url: http://arxiv.org/abs/2105.10633v1
- Date: Sat, 22 May 2021 03:46:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-27 10:33:03.879453
- Title: Revisiting Knowledge Distillation for Object Detection
- Title(参考訳): 物体検出のための知識蒸留の再検討
- Authors: Amin Banitalebi-Dehkordi
- Abstract要約: 既存のオブジェクト検出蒸留のソリューションは、教師モデルと接地木ラベルの両方の可用性に依存している。
このフレームワークでは、まず教師が生成した擬似ラベルを用いて学習し、もし利用可能であればラベル付きデータを用いて微調整を行う。
- 参考スコア(独自算出の注目度): 2.4747542937476448
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The existing solutions for object detection distillation rely on the
availability of both a teacher model and ground-truth labels. We propose a new
perspective to relax this constraint. In our framework, a student is first
trained with pseudo labels generated by the teacher, and then fine-tuned using
labeled data, if any available. Extensive experiments demonstrate improvements
over existing object detection distillation algorithms. In addition, decoupling
the teacher and ground-truth distillation in this framework provides
interesting properties such: as 1) using unlabeled data to further improve the
student's performance, 2) combining multiple teacher models of different
architectures, even with different object categories, and 3) reducing the need
for labeled data (with only 20% of COCO labels, this method achieves the same
performance as the model trained on the entire set of labels). Furthermore, a
by-product of this approach is the potential usage for domain adaptation. We
verify these properties through extensive experiments.
- Abstract(参考訳): 既存のオブジェクト検出蒸留のソリューションは、教師モデルとグランドトラスラベルの両方の可用性に依存している。
この制約を緩和する新たな視点を提案する。
私たちのフレームワークでは、まず教師が生成した擬似ラベルで生徒を訓練し、可能であればラベル付きデータを使って微調整します。
広範な実験により、既存のオブジェクト検出蒸留アルゴリズムよりも改善が示されている。
また、この枠組みにおける教師の分離と接地蒸留は、1)学生のパフォーマンスをさらに改善するためにラベルのないデータを使用すること、2)異なるアーキテクチャの複数の教師モデルと異なるオブジェクトカテゴリを組み合わせること、3)ラベル付きデータの必要性を減らすこと、(cocoラベルの20%しか持たないこの方法は、ラベルのセットでトレーニングされたモデルと同等の性能を達成している。
さらに、このアプローチの副産物は、ドメイン適応の潜在的利用である。
これらの性質は広範な実験を通じて検証する。
関連論文リスト
- Active Teacher for Semi-Supervised Object Detection [80.10937030195228]
半教師対象検出(SSOD)のための能動教師と呼ばれる新しいアルゴリズムを提案する。
Active Teacherは、教師/学生のフレームワークを反復的なバージョンに拡張し、ラベルセットを部分的に段階的に拡張し、ラベルなし例の3つの重要な要素を評価する。
この設計により、Active Teacherは、擬似ラベルの品質を改善しながら、限られたラベル情報の効果を最大化することができる。
論文 参考訳(メタデータ) (2023-03-15T03:59:27Z) - Adaptive Self-Training for Object Detection [13.07105239116411]
オブジェクト検出のための自己評価手法(ASTOD)を提案する。
ASTODはスコアヒストグラムの基底値に基づいて閾値を決定する。
擬似ラベル付けの段階では, ラベル付き画像の異なるビューを用いて, 誤り予測の回数を減らす。
論文 参考訳(メタデータ) (2022-12-07T15:10:40Z) - Probabilistic Integration of Object Level Annotations in Chest X-ray
Classification [37.99281019411076]
胸部X線画像における疾患分類のための新しい確率潜在変数モデルを提案する。
グローバルデータセット機能は、モデルの下位層で学習される。
詳細な専門的なオブジェクトレベルのアノテーションの具体的な詳細とニュアンスは、最終レイヤで学習されます。
論文 参考訳(メタデータ) (2022-10-13T12:53:42Z) - Exploring Inconsistent Knowledge Distillation for Object Detection with
Data Augmentation [66.25738680429463]
物体検出のための知識蒸留(KD)は、教師モデルから知識を伝達することで、コンパクトな検出器を訓練することを目的としている。
教師モデルの反直感的知覚に固有の知識を蒸留することを目的とした,一貫性のない知識蒸留(IKD)を提案する。
本手法は, 1段, 2段, アンカーフリーの物体検出器において, 最先端のKDベースラインより優れる。
論文 参考訳(メタデータ) (2022-09-20T16:36:28Z) - Unified and Effective Ensemble Knowledge Distillation [92.67156911466397]
知識蒸留は、複数の教師モデルから知識を抽出し、それを1人の学生モデルにエンコードする。
既存の多くの手法は、ラベル付きデータのみに基づいて学生モデルを学習し、蒸留する。
本研究では,教師モデルのアンサンブルから,ラベル付きデータとラベルなしデータの両方から単一学生モデルを蒸留する,統一的で効果的なアンサンブル知識蒸留法を提案する。
論文 参考訳(メタデータ) (2022-04-01T16:15:39Z) - A Lagrangian Duality Approach to Active Learning [119.36233726867992]
トレーニングデータのサブセットのみをラベル付けするバッチアクティブな学習問題を考察する。
制約付き最適化を用いて学習問題を定式化し、各制約はラベル付きサンプルにモデルの性能を拘束する。
数値実験により,提案手法は最先端の能動学習法と同等かそれ以上に機能することを示した。
論文 参考訳(メタデータ) (2022-02-08T19:18:49Z) - Label Assignment Distillation for Object Detection [0.0]
我々は,オブジェクト検出におけるラベル割り当てに着目した,単純だが効果的な知識蒸留手法を考案した。
提案手法は, MSCOCO 2017ベンチマークで有望な結果を示す。
論文 参考訳(メタデータ) (2021-09-16T10:11:58Z) - SLADE: A Self-Training Framework For Distance Metric Learning [75.54078592084217]
我々は、追加のラベルのないデータを活用することで、検索性能を向上させるための自己学習フレームワークSLADEを提案する。
まず、ラベル付きデータに基づいて教師モデルをトレーニングし、ラベルなしデータに対して擬似ラベルを生成する。
次に、最終機能埋め込みを生成するために、ラベルと擬似ラベルの両方で学生モデルをトレーニングします。
論文 参考訳(メタデータ) (2020-11-20T08:26:10Z) - Dual-Teacher: Integrating Intra-domain and Inter-domain Teachers for
Annotation-efficient Cardiac Segmentation [65.81546955181781]
本稿では,新しい半教師付きドメイン適応手法,すなわちDual-Teacherを提案する。
学生モデルは、2つの教師モデルによってラベル付けされていない対象データとラベル付けされた情報源データの知識を学習する。
提案手法では, ラベルなしデータとモダリティ間データとを並列に利用でき, 性能が向上することを示した。
論文 参考訳(メタデータ) (2020-07-13T10:00:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。