論文の概要: Distilling the Undistillable: Learning from a Nasty Teacher
- arxiv url: http://arxiv.org/abs/2210.11728v1
- Date: Fri, 21 Oct 2022 04:35:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 15:10:41.267487
- Title: Distilling the Undistillable: Learning from a Nasty Teacher
- Title(参考訳): 未蒸留液を蒸留する:悪い教師から学ぶ
- Authors: Surgan Jandial, Yash Khasbage, Arghya Pal, Vineeth N Balasubramanian,
Balaji Krishnamurthy
- Abstract要約: 標準データセットにおいて,Nasty Teacherの学習を68.63%向上させる効率的な手法を開発した。
また,盗みの洞察に基づく即興防衛手法についても検討する。
多様なモデル/セットに関する詳細な実験と改善は、我々のアプローチの有効性を実証している。
- 参考スコア(独自算出の注目度): 30.0248670422039
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The inadvertent stealing of private/sensitive information using Knowledge
Distillation (KD) has been getting significant attention recently and has
guided subsequent defense efforts considering its critical nature. Recent work
Nasty Teacher proposed to develop teachers which can not be distilled or
imitated by models attacking it. However, the promise of confidentiality
offered by a nasty teacher is not well studied, and as a further step to
strengthen against such loopholes, we attempt to bypass its defense and steal
(or extract) information in its presence successfully. Specifically, we analyze
Nasty Teacher from two different directions and subsequently leverage them
carefully to develop simple yet efficient methodologies, named as HTC and SCM,
which increase the learning from Nasty Teacher by upto 68.63% on standard
datasets. Additionally, we also explore an improvised defense method based on
our insights of stealing. Our detailed set of experiments and ablations on
diverse models/settings demonstrate the efficacy of our approach.
- Abstract(参考訳): 知識蒸留(KD)を用いた個人・機密情報の盗難は近年注目され、その重要性を考慮したその後の防衛努力を指導している。
最近の仕事の悪質な教師は、それを攻撃するモデルによって蒸留も模倣もできない教師を開発することを提案した。
しかし,教師が提供した秘密保持の約束は十分に研究されておらず,そのような抜け穴に対するさらなる対策として,我々はその防衛を回避し,その存在下で情報を盗む(あるいは抽出する)ことを試みている。
具体的には、2つの異なる方向から悪質な教師を分析し、それらを慎重に活用してhtcとscmと呼ばれるシンプルで効率的な手法を開発し、標準データセットで悪質な教師からの学習を最大68.63%増加させる。
また,盗みの洞察に基づく即興防衛手法についても検討した。
多様なモデル/セットに関する詳細な実験と改善は、我々のアプローチの有効性を示している。
関連論文リスト
- Improving Knowledge Distillation with Teacher's Explanation [14.935696904019146]
本稿では,KED(Knowledge Explaining Distillation)フレームワークを紹介する。
KEDは、教師の予測だけでなく、教師の説明からも学べるようにしている。
様々なデータセットに対する実験により,KEDの学生はKDの学生と同じような複雑さを著しく上回る結果が得られた。
論文 参考訳(メタデータ) (2023-10-04T04:18:01Z) - Faithful Knowledge Distillation [75.59907631395849]
i) 教師と学生は、正しく分類されたデータセットのサンプルに近い点で意見が一致しないか、(ii) 蒸留した学生は、データセットのサンプルに関する教師と同じくらい自信があるか、という2つの重要な質問に焦点をあてる。
これらは、安全クリティカルな設定の中で、堅牢な教師から訓練された小さな学生ネットワークを配置することを考えると、重要な問題である。
論文 参考訳(メタデータ) (2023-06-07T13:41:55Z) - Learning the Wrong Lessons: Inserting Trojans During Knowledge
Distillation [68.8204255655161]
トロイの木馬の攻撃は、ディープラーニングモデルの基本的脆弱性を明らかにし、同時に顕著に有名になった。
我々は,教師に顕著な振る舞いを導入することなく,生徒モデルにトロイの木馬を埋め込むために,乱れのないデータ知識蒸留プロセスを活用することを目的とする。
我々は、生徒の精度を効果的に低減し、教師のパフォーマンスを変えず、実際に効率的に構築可能なトロイの木馬攻撃を考案した。
論文 参考訳(メタデータ) (2023-03-09T21:37:50Z) - Students Parrot Their Teachers: Membership Inference on Model
Distillation [54.392069096234074]
知識蒸留によるプライバシを,教師と学生のトレーニングセットの両方で研究する。
私たちの攻撃は、生徒セットと教師セットが類似している場合、または攻撃者が教師セットを毒できる場合、最強です。
論文 参考訳(メタデータ) (2023-03-06T19:16:23Z) - Adam: Dense Retrieval Distillation with Adaptive Dark Examples [104.01735794498767]
本稿では,教師が持つ暗黒知識を適応暗黒エクストリームで伝達する知識蒸留フレームワークであるADAMを提案する。
2つの広く利用されているベンチマークで実験を行い、本手法の有効性を検証する。
論文 参考訳(メタデータ) (2022-12-20T12:03:19Z) - On the benefits of knowledge distillation for adversarial robustness [53.41196727255314]
知識蒸留は, 対向ロバスト性において, 最先端モデルの性能を高めるために直接的に利用できることを示す。
本稿では,モデルの性能向上のための新しいフレームワークであるAdversarial Knowledge Distillation (AKD)を提案する。
論文 参考訳(メタデータ) (2022-03-14T15:02:13Z) - Fixing the Teacher-Student Knowledge Discrepancy in Distillation [72.4354883997316]
本稿では,教師の知識を学生とより整合させる,新たな学生依存型蒸留法である知識一貫型蒸留を提案する。
この手法は非常に柔軟で,他の最先端手法と容易に組み合わせることができる。
論文 参考訳(メタデータ) (2021-03-31T06:52:20Z) - DE-RRD: A Knowledge Distillation Framework for Recommender System [16.62204445256007]
DE-RRDと呼ばれるレコメンダーシステムのためのナレッジ蒸留フレームワークを提案する。
これにより,教師モデルにエンコードされた潜在知識や教師の予測から学習モデルを学ぶことができる。
実験の結果,DE-RRDは最先端の競争相手よりも優れており,より高速な推論時間で教師モデルに匹敵する,あるいはさらに優れた性能を発揮することがわかった。
論文 参考訳(メタデータ) (2020-12-08T11:09:22Z) - Feature Distillation With Guided Adversarial Contrastive Learning [41.28710294669751]
本研究は,教師から生徒へ対人ロバスト性を伝えるためのGACD ( Guided Adversarial Contrastive Distillation) を提案する。
アンカーとして訓練された教師モデルでは,教師に類似した特徴を抽出することが期待されている。
GACDでは、生徒は頑丈な特徴を抽出することを学ぶだけでなく、教師からの構造的知識も取得する。
論文 参考訳(メタデータ) (2020-09-21T14:46:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。