論文の概要: Iterative Self Knowledge Distillation -- From Pothole Classification to
Fine-Grained and COVID Recognition
- arxiv url: http://arxiv.org/abs/2202.02265v1
- Date: Fri, 4 Feb 2022 17:47:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-07 16:11:12.059360
- Title: Iterative Self Knowledge Distillation -- From Pothole Classification to
Fine-Grained and COVID Recognition
- Title(参考訳): 反復的自己知識蒸留 --ポットホール分類から細粒化・認識まで-
- Authors: Kuan-Chuan Peng
- Abstract要約: ポトホールの分類は、自動車事故や修理法案からドライバーを救うための道路検査車両にとって重要な課題となっている。
軽量ポットホール分類器を訓練するための反復自己知識蒸留(ISKD)を提案する。
- 参考スコア(独自算出の注目度): 6.744385328015559
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pothole classification has become an important task for road inspection
vehicles to save drivers from potential car accidents and repair bills. Given
the limited computational power and fixed number of training epochs, we propose
iterative self knowledge distillation (ISKD) to train lightweight pothole
classifiers. Designed to improve both the teacher and student models over time
in knowledge distillation, ISKD outperforms the state-of-the-art self knowledge
distillation method on three pothole classification datasets across four
lightweight network architectures, which supports that self knowledge
distillation should be done iteratively instead of just once. The accuracy
relation between the teacher and student models shows that the student model
can still benefit from a moderately trained teacher model. Implying that better
teacher models generally produce better student models, our results justify the
design of ISKD. In addition to pothole classification, we also demonstrate the
efficacy of ISKD on six additional datasets associated with generic
classification, fine-grained classification, and medical imaging application,
which supports that ISKD can serve as a general-purpose performance booster
without the need of a given teacher model and extra trainable parameters.
- Abstract(参考訳): ポトホール分類は、自動車事故や修理法案からドライバーを救う道路検査車両にとって重要な課題となっている。
計算能力の制限と訓練エポック数の固定化を踏まえ,軽量ポットホール分類器を訓練するための反復自己知識蒸留(ISKD)を提案する。
知識蒸留における教師モデルと学生モデルの両方を改善するために設計され、ISKDは4つの軽量ネットワークアーキテクチャにまたがる3つのポットホール分類データセットに対して、最先端の自己知識蒸留法より優れている。
教師モデルと生徒モデルとの正確性の関係は,生徒モデルが中程度に訓練された教師モデルからメリットを享受できることを示す。
より優れた教師モデルがより優れた学生モデルを生み出すことを示唆し、その結果はISKDの設計を正当化する。
また, 総合分類, 細粒度分類, 医用画像アプリケーションに関連する6つの追加データセットに対するISKDの有効性を示すとともに, 教師モデルや余分な訓練可能なパラメータを必要とせずに, 汎用的なパフォーマンス促進装置として機能することを支援する。
関連論文リスト
- Adaptive Explicit Knowledge Transfer for Knowledge Distillation [17.739979156009696]
教師モデルから,非目標クラスの確率分布を効果的に提供することにより,ロジットに基づく知識蒸留の性能を向上させることができることを示す。
本研究では,学習者が暗黙的な知識を適応的に学習できる新たな損失を提案する。
実験結果から, 適応的明示的知識伝達法(AEKT)は, 最先端KD法と比較して性能が向上することが示された。
論文 参考訳(メタデータ) (2024-09-03T07:42:59Z) - Multi Teacher Privileged Knowledge Distillation for Multimodal Expression Recognition [58.41784639847413]
人間の感情は、表情、声調、ボディランゲージ、生理的信号を通じて伝達され知覚される複雑な現象である。
本稿では, 学生に蒸留する前に, 教師の多様な表現を並べ合わせるために, 自己蒸留による多教師PKD(MT-PKDOT)法を提案する。
その結果,提案手法はSOTA PKD法より優れていることがわかった。
論文 参考訳(メタデータ) (2024-08-16T22:11:01Z) - TIE-KD: Teacher-Independent and Explainable Knowledge Distillation for
Monocular Depth Estimation [1.03590082373586]
本稿では、複雑な教師モデルからコンパクトな学生ネットワークへの知識伝達を合理化するTIE-KD(Teacher-Independent Explainable Knowledge Distillation)フレームワークを紹介する。
TIE-KDの基盤はDPM(Depth Probability Map)であり、教師の出力を解釈する説明可能な特徴マップである。
KITTIデータセットの大規模な評価は、TIE-KDが従来の応答に基づくKD法より優れているだけでなく、多様な教師や学生のアーキテクチャで一貫した有効性を示すことを示している。
論文 参考訳(メタデータ) (2024-02-22T07:17:30Z) - One-for-All: Bridge the Gap Between Heterogeneous Architectures in
Knowledge Distillation [69.65734716679925]
知識蒸留は,教師が指導する学習手法を通じて,モデル性能を向上させる上で,極めて効果的な手法であることが証明されている。
既存の蒸留法のほとんどは、教師と生徒のモデルが同じモデルファミリーに属するという前提で設計されている。
我々は, ヘテロジニアスアーキテクチャ間の蒸留性能を大幅に向上させる, OFA-KDという, 単純で効果的な一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元
論文 参考訳(メタデータ) (2023-10-30T11:13:02Z) - Exploring Inconsistent Knowledge Distillation for Object Detection with
Data Augmentation [66.25738680429463]
物体検出のための知識蒸留(KD)は、教師モデルから知識を伝達することで、コンパクトな検出器を訓練することを目的としている。
教師モデルの反直感的知覚に固有の知識を蒸留することを目的とした,一貫性のない知識蒸留(IKD)を提案する。
本手法は, 1段, 2段, アンカーフリーの物体検出器において, 最先端のKDベースラインより優れる。
論文 参考訳(メタデータ) (2022-09-20T16:36:28Z) - CES-KD: Curriculum-based Expert Selection for Guided Knowledge
Distillation [4.182345120164705]
本稿では,知識蒸留のためのカリキュラムエキスパート選択法(CES-KD)を提案する。
CES-KDは、階層化された教育カリキュラムを使用して学生ネットワークを徐々にガイドすべきという仮説に基づいている。
具体的には、画像の分類の難しさに起因したカリキュラムに基づいて、入力画像ごとに1人の教師を選択する段階的なTAベースのKD手法を提案する。
論文 参考訳(メタデータ) (2022-09-15T21:02:57Z) - Better Teacher Better Student: Dynamic Prior Knowledge for Knowledge
Distillation [70.92135839545314]
本研究では,教師の持つ特徴の一部を,特徴蒸留前の先行知識として統合した動的事前知識(DPK)を提案する。
DPKは,教員モデルと生徒モデルのパフォーマンスを正に相関させ,より大きな教員を適用することで生徒の精度をさらに高めることができる。
論文 参考訳(メタデータ) (2022-06-13T11:52:13Z) - Parameter-Efficient and Student-Friendly Knowledge Distillation [83.56365548607863]
本稿では, PESF-KDというパラメータ効率と学生に優しい知識蒸留法を提案し, 効率的かつ十分な知識伝達を実現する。
各種ベンチマーク実験により,PESF-KDは,高度オンライン蒸留法と比較して,競争力のある結果を得ながら,トレーニングコストを大幅に削減できることが示された。
論文 参考訳(メタデータ) (2022-05-28T16:11:49Z) - Dynamic Rectification Knowledge Distillation [0.0]
ダイナミック・リクティフィケーション・ナレッジ蒸留(DR-KD)は、知識蒸留の枠組みである。
DR-KDは生徒を自身の教師に転換し、自己学習者が情報を蒸留しながら誤った予測を行った場合、知識が蒸留される前に誤りが修正される。
提案するDR-KDは, 複雑な教師モデルが存在しない場合, 極めて良好に機能する。
論文 参考訳(メタデータ) (2022-01-27T04:38:01Z) - Adaptive Instance Distillation for Object Detection in Autonomous
Driving [3.236217153362305]
本稿では,教師の知識を学生に選択的に付与し,知識蒸留の性能を向上させるための適応型インスタンス蒸留(AID)を提案する。
また,AIDは教師モデルの性能向上に有効であることが示された。
論文 参考訳(メタデータ) (2022-01-26T18:06:33Z) - Localization Distillation for Object Detection [79.78619050578997]
物体検出のためのローカライズ蒸留(LD)を提案する。
我々のldは、バウンディングボックスの一般局在表現を採用することで標準kdとして定式化することができる。
教師モデルと学生モデルとのギャップを埋めるための教師アシスタント(TA)戦略を提案します。
論文 参考訳(メタデータ) (2021-02-24T12:26:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。