論文の概要: Adaptive Multi-Teacher Knowledge Distillation with Meta-Learning
- arxiv url: http://arxiv.org/abs/2306.06634v1
- Date: Sun, 11 Jun 2023 09:38:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 17:37:37.064102
- Title: Adaptive Multi-Teacher Knowledge Distillation with Meta-Learning
- Title(参考訳): メタラーニングによる適応型マルチ教師知識蒸留
- Authors: Hailin Zhang, Defang Chen, Can Wang
- Abstract要約: 適応型多教師知識蒸留とメタラーニング(MMKD)を提案する。
メタウェイトネットワークの助けを借りて、出力層と中間層における多様な教師の知識を活用し、生徒のパフォーマンスを向上させる。
- 参考スコア(独自算出の注目度): 16.293262022872412
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-Teacher knowledge distillation provides students with additional
supervision from multiple pre-trained teachers with diverse information
sources. Most existing methods explore different weighting strategies to obtain
a powerful ensemble teacher, while ignoring the student with poor learning
ability may not benefit from such specialized integrated knowledge. To address
this problem, we propose Adaptive Multi-teacher Knowledge Distillation with
Meta-Learning (MMKD) to supervise student with appropriate knowledge from a
tailored ensemble teacher. With the help of a meta-weight network, the diverse
yet compatible teacher knowledge in the output layer and intermediate layers is
jointly leveraged to enhance the student performance. Extensive experiments on
multiple benchmark datasets validate the effectiveness and flexibility of our
methods. Code is available: https://github.com/Rorozhl/MMKD.
- Abstract(参考訳): マルチ教師の知識蒸留は、学生に様々な情報ソースを持つ複数の事前訓練された教師のさらなる監督を提供する。
既存の方法の多くは、強力なアンサンブル教師を得るための異なる重み付け戦略を探求するが、学習能力の乏しい生徒を無視することは、そのような専門的な知識の恩恵を受けない。
そこで本稿では,メタラーニングによる適応型多教師知識蒸留(MMKD)を提案する。
メタウェイトネットワークの助けを借りて、出力層と中間層における多様な相性のある教師の知識を共同で活用し、生徒のパフォーマンスを向上させる。
複数のベンチマークデータセットに対する大規模な実験は、我々の方法の有効性と柔軟性を検証する。
コードはhttps://github.com/rorozhl/mmkd。
関連論文リスト
- Collaborative Multi-Teacher Knowledge Distillation for Learning Low
Bit-width Deep Neural Networks [28.215073725175728]
マルチ教師による知識蒸留とネットワーク量子化を併用した,低ビット幅DNN学習のための新しいフレームワークを提案する。
CIFAR100 と ImageNet のデータセットを用いた実験結果から,本手法で訓練した小型量子化学生モデルによる競争結果が得られた。
論文 参考訳(メタデータ) (2022-10-27T01:03:39Z) - Learning Knowledge Representation with Meta Knowledge Distillation for
Single Image Super-Resolution [82.89021683451432]
単一画像超解像課題に対する教師/学生アーキテクチャに基づくモデルに依存しないメタ知識蒸留法を提案する。
種々の単一画像超解像データセットを用いた実験により,提案手法は既存の知識表現関連蒸留法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-07-18T02:41:04Z) - Confidence-Aware Multi-Teacher Knowledge Distillation [12.938478021855245]
そこで本研究では,教師の予測に対して,基本トラスラベルの助けを借りて,サンプルの信頼性を適応的に割り当てる,信頼性に配慮した多教師知識蒸留(CA-MKD)を提案する。
私たちのCA-MKDは、様々な教師学生アーキテクチャで比較された最先端の手法を一貫して上回ります。
論文 参考訳(メタデータ) (2021-12-30T11:00:49Z) - Augmenting Knowledge Distillation With Peer-To-Peer Mutual Learning For
Model Compression [2.538209532048867]
相互学習(ML)は、複数の単純な学生ネットワークが知識を共有することで恩恵を受ける、代替戦略を提供する。
そこで本研究では,KDとMLを併用して,より優れたパフォーマンスを実現する,単教師多学生フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-21T09:59:31Z) - Iterative Teacher-Aware Learning [136.05341445369265]
人間の教育において、教師と学生はコミュニケーション効率を最大化するために適応的に交流することができる。
本稿では,教師の協調意図を可能性関数に組み込むことができる,勾配最適化に基づく教師認識学習者を提案する。
論文 参考訳(メタデータ) (2021-10-01T00:27:47Z) - Fixing the Teacher-Student Knowledge Discrepancy in Distillation [72.4354883997316]
本稿では,教師の知識を学生とより整合させる,新たな学生依存型蒸留法である知識一貫型蒸留を提案する。
この手法は非常に柔軟で,他の最先端手法と容易に組み合わせることができる。
論文 参考訳(メタデータ) (2021-03-31T06:52:20Z) - Adaptive Multi-Teacher Multi-level Knowledge Distillation [11.722728148523366]
適応型多段階知識蒸留学習フレームワーク(AMTML-KD)を提案する。
i)各教師と潜在表現を関連付けて、インスタンスレベルの教師の重要性の重みを適応的に学習する。
そのため、学生モデルはAMMTML-KDを介して複数の教師から多レベルの知識を学ぶことができます。
論文 参考訳(メタデータ) (2021-03-06T08:18:16Z) - Collaborative Teacher-Student Learning via Multiple Knowledge Transfer [79.45526596053728]
複数知識伝達(CTSL-MKT)による協調学習を提案する。
複数の学生が協調的な方法で個々のインスタンスとインスタンスの関係の両方から知識を学ぶことができます。
4つの画像データセットの実験とアブレーション研究は、提案したCTSL-MKTが最先端のKD法よりも大幅に優れていることを示した。
論文 参考訳(メタデータ) (2021-01-21T07:17:04Z) - Interactive Knowledge Distillation [79.12866404907506]
本稿では,効率的な知識蒸留のための対話型指導戦略を活用するために,対話型知識蒸留方式を提案する。
蒸留工程では,教師と学生のネットワーク間の相互作用を交換操作により行う。
教員ネットワークの典型的な設定による実験により,IAKDで訓練された学生ネットワークは,従来の知識蒸留法で訓練された学生ネットワークよりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-07-03T03:22:04Z) - Peer Collaborative Learning for Online Knowledge Distillation [69.29602103582782]
Peer Collaborative Learningメソッドは、オンラインアンサンブルとネットワークコラボレーションを統合フレームワークに統合する。
CIFAR-10, CIFAR-100, ImageNetによる実験により, 提案手法は種々のバックボーンネットワークの一般化を著しく改善することを示した。
論文 参考訳(メタデータ) (2020-06-07T13:21:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。