論文の概要: Student Network Learning via Evolutionary Knowledge Distillation
- arxiv url: http://arxiv.org/abs/2103.13811v1
- Date: Tue, 23 Mar 2021 02:07:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-26 13:32:33.901975
- Title: Student Network Learning via Evolutionary Knowledge Distillation
- Title(参考訳): 進化的知識蒸留による学生ネットワーク学習
- Authors: Kangkai Zhang, Chunhui Zhang, Shikun Li, Dan Zeng, Shiming Ge
- Abstract要約: 教師知識の伝達効率を改善するための進化的知識蒸留手法を提案する。
進化的教師は、固定された予習教師の代わりにオンラインで学習され、学生ネットワーク学習を監督するために、中間的知識を継続的に伝達する。
このようにして、学生は豊富な内部知識を同時に獲得し、その成長過程を捉え、効果的なネットワーク学習につながる。
- 参考スコア(独自算出の注目度): 22.030934154498205
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge distillation provides an effective way to transfer knowledge via
teacher-student learning, where most existing distillation approaches apply a
fixed pre-trained model as teacher to supervise the learning of student
network. This manner usually brings in a big capability gap between teacher and
student networks during learning. Recent researches have observed that a small
teacher-student capability gap can facilitate knowledge transfer. Inspired by
that, we propose an evolutionary knowledge distillation approach to improve the
transfer effectiveness of teacher knowledge. Instead of a fixed pre-trained
teacher, an evolutionary teacher is learned online and consistently transfers
intermediate knowledge to supervise student network learning on-the-fly. To
enhance intermediate knowledge representation and mimicking, several simple
guided modules are introduced between corresponding teacher-student blocks. In
this way, the student can simultaneously obtain rich internal knowledge and
capture its growth process, leading to effective student network learning.
Extensive experiments clearly demonstrate the effectiveness of our approach as
well as good adaptability in the low-resolution and few-sample visual
recognition scenarios.
- Abstract(参考訳): 知識蒸留は、教師-学生学習を通じて知識を伝達する効果的な方法を提供し、既存の蒸留アプローチのほとんどは、教師として一定の事前学習モデルを適用して学生ネットワークの学習を監督する。
この方法は通常、学習中に教師と学生のネットワークの間に大きなギャップをもたらす。
近年の研究では、教師と学生の能力格差が知識伝達を促進することが報告されている。
そこで我々は,教師の知識の伝達効率を向上させるために,進化的知識蒸留手法を提案する。
進化的教師は、固定された予習教師の代わりにオンラインで学習され、学生ネットワーク学習を監督するために、中間的知識を継続的に伝達する。
中間知識表現と模倣を強化するため、教師-学生ブロック間でいくつかの簡単なガイド付きモジュールが導入された。
このようにして、学生は豊富な内部知識を同時に獲得し、その成長過程を捉え、効果的なネットワーク学習につながる。
広汎な実験により、低解像度・少数サンプルの視覚認識シナリオにおいて、我々のアプローチの有効性と適応性が明らかとなった。
関連論文リスト
- Improving Knowledge Distillation via Transferring Learning Ability [15.62306809592042]
既存の知識蒸留法では、学生ネットワークがよく訓練された教師からのみ学習する、教師-学生のアプローチが一般的である。
このアプローチは、教師と生徒のネットワーク間の学習能力の固有の相違を見落とし、キャパシティギャップの問題を引き起こす。
この制限に対処するために,SLKDと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-04-24T09:06:06Z) - Generalized Knowledge Distillation via Relationship Matching [53.69235109551099]
よく訓練されたディープニューラルネットワーク(いわゆる「教師」)の知識は、同様のタスクを学ぶのに有用である。
知識蒸留は教師から知識を抽出し、対象モデルと統合する。
教師に学生と同じ仕事をさせる代わりに、一般のラベル空間から訓練を受けた教師の知識を借りる。
論文 参考訳(メタデータ) (2022-05-04T06:49:47Z) - Iterative Teacher-Aware Learning [136.05341445369265]
人間の教育において、教師と学生はコミュニケーション効率を最大化するために適応的に交流することができる。
本稿では,教師の協調意図を可能性関数に組み込むことができる,勾配最適化に基づく教師認識学習者を提案する。
論文 参考訳(メタデータ) (2021-10-01T00:27:47Z) - Fixing the Teacher-Student Knowledge Discrepancy in Distillation [72.4354883997316]
本稿では,教師の知識を学生とより整合させる,新たな学生依存型蒸留法である知識一貫型蒸留を提案する。
この手法は非常に柔軟で,他の最先端手法と容易に組み合わせることができる。
論文 参考訳(メタデータ) (2021-03-31T06:52:20Z) - Distilling Knowledge via Intermediate Classifier Heads [0.5584060970507505]
知識蒸留は、事前訓練されたより大きな教師モデルのガイドを用いて、リソース限定の学生モデルを訓練するためのトランスファーラーニングアプローチである。
キャパシティギャップの影響を軽減するため,中間頭部による知識蒸留を導入する。
種々の教師と学生のペアとデータセットに関する実験により,提案手法が標準知識蒸留法よりも優れていることを示した。
論文 参考訳(メタデータ) (2021-02-28T12:52:52Z) - Learning Student-Friendly Teacher Networks for Knowledge Distillation [50.11640959363315]
本研究では,教師から学生への暗黒知識の伝達を容易にする新しい知識蒸留手法を提案する。
事前教育を受けた教師に与えた学習モデルの効果的な学習方法のほとんどとは対照的に,学生に親しみやすい教師モデルを学ぶことを目的とする。
論文 参考訳(メタデータ) (2021-02-12T07:00:17Z) - Point Adversarial Self Mining: A Simple Method for Facial Expression
Recognition [79.75964372862279]
本稿では,表情認識における認識精度を向上させるために,PASM(Point Adversarial Self Mining)を提案する。
PASMは、目標タスクに関連する最も情報性の高い位置を見つけるために、ポイント敵攻撃法と訓練された教師ネットワークを使用する。
適応学習教材の生成と教師/学生の更新を複数回行うことができ、ネットワーク能力が反復的に向上する。
論文 参考訳(メタデータ) (2020-08-26T06:39:24Z) - Interactive Knowledge Distillation [79.12866404907506]
本稿では,効率的な知識蒸留のための対話型指導戦略を活用するために,対話型知識蒸留方式を提案する。
蒸留工程では,教師と学生のネットワーク間の相互作用を交換操作により行う。
教員ネットワークの典型的な設定による実験により,IAKDで訓練された学生ネットワークは,従来の知識蒸留法で訓練された学生ネットワークよりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-07-03T03:22:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。