論文の概要: Self-Knowledge Distillation with Progressive Refinement of Targets
- arxiv url: http://arxiv.org/abs/2006.12000v3
- Date: Thu, 7 Oct 2021 13:09:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 04:45:38.396214
- Title: Self-Knowledge Distillation with Progressive Refinement of Targets
- Title(参考訳): ターゲットの漸進的精製による自己知識蒸留
- Authors: Kyungyul Kim, ByeongMoon Ji, Doyoung Yoon, Sangheum Hwang
- Abstract要約: プログレッシブ自己知識蒸留(PS-KD)という,単純で効果的な正則化法を提案する。
PS-KDは、訓練中にハードターゲットを柔らかくするために、モデルの知識を徐々に蒸留する。
分析の結果,PS-KDは,試料の分類の難しさに応じて勾配を再スケーリングすることで,硬い試料採掘の効果を示すことがわかった。
- 参考スコア(独自算出の注目度): 1.1470070927586016
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The generalization capability of deep neural networks has been substantially
improved by applying a wide spectrum of regularization methods, e.g.,
restricting function space, injecting randomness during training, augmenting
data, etc. In this work, we propose a simple yet effective regularization
method named progressive self-knowledge distillation (PS-KD), which
progressively distills a model's own knowledge to soften hard targets (i.e.,
one-hot vectors) during training. Hence, it can be interpreted within a
framework of knowledge distillation as a student becomes a teacher itself.
Specifically, targets are adjusted adaptively by combining the ground-truth and
past predictions from the model itself. We show that PS-KD provides an effect
of hard example mining by rescaling gradients according to difficulty in
classifying examples. The proposed method is applicable to any supervised
learning tasks with hard targets and can be easily combined with existing
regularization methods to further enhance the generalization performance.
Furthermore, it is confirmed that PS-KD achieves not only better accuracy, but
also provides high quality of confidence estimates in terms of calibration as
well as ordinal ranking. Extensive experimental results on three different
tasks, image classification, object detection, and machine translation,
demonstrate that our method consistently improves the performance of the
state-of-the-art baselines. The code is available at
https://github.com/lgcnsai/PS-KD-Pytorch.
- Abstract(参考訳): ディープニューラルネットワークの一般化能力は、関数空間の制限、トレーニング中のランダム性の注入、データの強化など、幅広い正規化手法を適用して大幅に改善されている。
本研究では, モデル自体の知識を段階的に蒸留し, 訓練中にハードターゲット(すなわち1ホットベクトル)を軟化させる, プログレッシブ自己知識蒸留法(PS-KD)を提案する。
したがって、学生が教師になるときに知識蒸留の枠組みの中で解釈することができる。
具体的には、モデル自体から地平線と過去の予測を組み合わせることで、ターゲットを適応的に調整する。
また,ps-kdは,サンプル分類の難易度に応じた再スケーリングによるハードサンプルマイニングの効果を示す。
提案手法は,任意の教師付き学習タスクに適用可能であり,既存の正規化手法と組み合わせることで,一般化性能をさらに高めることができる。
さらに、ps-kdは精度の向上だけでなく、校正や順序ランキングの点でも高い信頼性を期待できることを確認した。
画像分類,オブジェクト検出,機械翻訳の3つのタスクに対する大規模な実験結果から,提案手法が常に最先端のベースラインの性能を向上させることを示す。
コードはhttps://github.com/lgcnsai/ps-kd-pytorchで入手できる。
関連論文リスト
- Adaptive Explicit Knowledge Transfer for Knowledge Distillation [17.739979156009696]
教師モデルから,非目標クラスの確率分布を効果的に提供することにより,ロジットに基づく知識蒸留の性能を向上させることができることを示す。
本研究では,学習者が暗黙的な知識を適応的に学習できる新たな損失を提案する。
実験結果から, 適応的明示的知識伝達法(AEKT)は, 最先端KD法と比較して性能が向上することが示された。
論文 参考訳(メタデータ) (2024-09-03T07:42:59Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Selective Learning: Towards Robust Calibration with Dynamic Regularization [79.92633587914659]
ディープラーニングにおけるミススキャリブレーションとは、予測された信頼とパフォーマンスの間には相違がある、という意味である。
トレーニング中に何を学ぶべきかを学ぶことを目的とした動的正規化(DReg)を導入し、信頼度調整のトレードオフを回避する。
論文 参考訳(メタデータ) (2024-02-13T11:25:20Z) - Unifying Synergies between Self-supervised Learning and Dynamic
Computation [53.66628188936682]
SSLとDCのパラダイム間の相互作用に関する新しい視点を提示する。
SSL設定において、スクラッチから高密度かつゲートされたサブネットワークを同時に学習することは可能であることを示す。
密集エンコーダとゲートエンコーダの事前学習における共進化は、良好な精度と効率のトレードオフをもたらす。
論文 参考訳(メタデータ) (2023-01-22T17:12:58Z) - Self-Knowledge Distillation via Dropout [0.7883397954991659]
ドロップアウト(SD-Dropout)を用いた簡便かつ効果的な自己知識蒸留法を提案する。
我々の方法は、追加のトレーニング可能なモジュールを必要とせず、データに依存しず、単純な操作しか必要としない。
論文 参考訳(メタデータ) (2022-08-11T05:08:55Z) - Robust and Accurate Object Detection via Self-Knowledge Distillation [9.508466066051572]
Unified Decoupled Feature Alignment (UDFA)は、既存のメソッドよりも優れたパフォーマンスを実現する新しい微調整パラダイムである。
UDFAは、対象検出のための標準的な訓練方法や最先端の訓練方法を上回ることができることを示す。
論文 参考訳(メタデータ) (2021-11-14T04:40:15Z) - Efficient training of lightweight neural networks using Online
Self-Acquired Knowledge Distillation [51.66271681532262]
オンライン自己獲得知識蒸留(OSAKD)は、ディープニューラルネットワークの性能をオンライン的に向上することを目的としている。
出力特徴空間におけるデータサンプルの未知確率分布を推定するために、k-nnノンパラメトリック密度推定手法を用いる。
論文 参考訳(メタデータ) (2021-08-26T14:01:04Z) - An Adaptive Framework for Learning Unsupervised Depth Completion [59.17364202590475]
カラー画像から高密度深度マップとそれに伴うスパース深度測定を推定する手法を提案する。
正規化とコビジュアライゼーションは、モデルの適合度とデータによって関連付けられており、単一のフレームワークに統合可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T02:27:55Z) - Deep Semi-supervised Knowledge Distillation for Overlapping Cervical
Cell Instance Segmentation [54.49894381464853]
本稿では, ラベル付きデータとラベルなしデータの両方を, 知識蒸留による精度向上に活用することを提案する。
摂動に敏感なサンプルマイニングを用いたマスク誘導型平均教師フレームワークを提案する。
実験の結果,ラベル付きデータのみから学習した教師付き手法と比較して,提案手法は性能を著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-21T13:27:09Z) - Regularized Training and Tight Certification for Randomized Smoothed
Classifier with Provable Robustness [15.38718018477333]
我々は新たな正規化リスクを導出し、正規化器はスムーズな手法の精度と堅牢性を適応的に促進することができる。
また、正規化効果を利用して、高い確率で保持されるより厳密なロバスト性の下限を提供する新しい認証アルゴリズムを設計する。
論文 参考訳(メタデータ) (2020-02-17T20:54:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。