論文の概要: Students Parrot Their Teachers: Membership Inference on Model
Distillation
- arxiv url: http://arxiv.org/abs/2303.03446v1
- Date: Mon, 6 Mar 2023 19:16:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-08 17:42:16.685580
- Title: Students Parrot Their Teachers: Membership Inference on Model
Distillation
- Title(参考訳): 学生が教師を養育する : モデル蒸留に関する会員推定
- Authors: Matthew Jagielski, Milad Nasr, Christopher Choquette-Choo, Katherine
Lee, Nicholas Carlini
- Abstract要約: 知識蒸留によるプライバシを,教師と学生のトレーニングセットの両方で研究する。
私たちの攻撃は、生徒セットと教師セットが類似している場合、または攻撃者が教師セットを毒できる場合、最強です。
- 参考スコア(独自算出の注目度): 54.392069096234074
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Model distillation is frequently proposed as a technique to reduce the
privacy leakage of machine learning. These empirical privacy defenses rely on
the intuition that distilled ``student'' models protect the privacy of training
data, as they only interact with this data indirectly through a ``teacher''
model. In this work, we design membership inference attacks to systematically
study the privacy provided by knowledge distillation to both the teacher and
student training sets. Our new attacks show that distillation alone provides
only limited privacy across a number of domains. We explain the success of our
attacks on distillation by showing that membership inference attacks on a
private dataset can succeed even if the target model is *never* queried on any
actual training points, but only on inputs whose predictions are highly
influenced by training data. Finally, we show that our attacks are strongest
when student and teacher sets are similar, or when the attacker can poison the
teacher set.
- Abstract(参考訳): モデル蒸留は機械学習のプライバシー漏洩を低減する手法としてしばしば提案される。
これらの経験的なプライバシの防御は、 ‘`student'モデルを蒸留した直観に依存し、‘`teacher'モデルを通じて間接的にのみこのデータと対話するため、トレーニングデータのプライバシを保護する。
本研究では,知識蒸留によるプライバシを教師と学生のトレーニングセットの両方に体系的に研究するために,会員推論攻撃を設計する。
われわれの新しい攻撃は、蒸留だけで複数のドメインにまたがる限定的なプライバシーしか提供できないことを示している。
本研究は, 実際の訓練点において, 目標モデルが*never*の問合せであっても, 個人データセットに対するメンバシップ推論攻撃が成功することを示すことによって, 蒸留に対する攻撃の成功を説明する。
最後に, 生徒セットと教師セットが類似している場合, あるいは攻撃者が教師セットに毒を盛る場合, 攻撃が最強であることを示す。
関連論文リスト
- No Vandalism: Privacy-Preserving and Byzantine-Robust Federated Learning [18.1129191782913]
フェデレートされた学習により、複数のクライアントがプライベートデータを共有せずに1つの機械学習モデルを共同でトレーニングし、プライバシ保護を提供する。
従来の連合学習は、毒性攻撃に弱いため、モデルの性能を低下させるだけでなく、悪意のあるバックドアを埋め込むこともできる。
本稿では,悪意ある参加者からの攻撃に対して,有害行為(NoV)のない環境を提供するために,プライバシ保護とビザンチン損なうフェデレーション・ラーニング・スキームを構築することを目的とする。
論文 参考訳(メタデータ) (2024-06-03T07:59:10Z) - Differentially Private and Adversarially Robust Machine Learning: An
Empirical Evaluation [2.8084422332394428]
悪意のある敵は、一連の回避攻撃を起動することで、機械学習モデルに攻撃して機密情報を推測したり、システムにダメージを与えたりすることができる。
本研究は,同時攻撃に対する対人訓練と対人訓練の併用について検討した。
論文 参考訳(メタデータ) (2024-01-18T22:26:31Z) - Protecting Split Learning by Potential Energy Loss [70.81375125791979]
我々は、分割学習の前方埋め込みからのプライバシー漏洩に焦点を当てる。
我々は、前方埋め込みをより「複雑化」させるためのエネルギー損失の可能性を提案する。
論文 参考訳(メタデータ) (2022-10-18T06:21:11Z) - The Privacy Onion Effect: Memorization is Relative [76.46529413546725]
もっとも脆弱な外接点の"層"を取り除くことで、前もって安全だった点の新たな層を同じ攻撃に晒す。
これは、機械学習のようなプライバシー強化技術が、他のユーザーのプライバシーに悪影響を及ぼす可能性を示唆している。
論文 参考訳(メタデータ) (2022-06-21T15:25:56Z) - Defense Against Gradient Leakage Attacks via Learning to Obscure Data [48.67836599050032]
フェデレートラーニングは、効果的なプライバシー保護学習メカニズムと考えられている。
本稿では,不明瞭なデータに学習することで,クライアントのデータ保護のための新しい防御手法を提案する。
論文 参考訳(メタデータ) (2022-06-01T21:03:28Z) - Truth Serum: Poisoning Machine Learning Models to Reveal Their Secrets [53.866927712193416]
トレーニングデータセットを有害にすることができる敵が、このデータセットでトレーニングされたモデルに、他の当事者のプライベート詳細を漏洩させる可能性があることを示す。
私たちの攻撃は、メンバーシップ推論、属性推論、データ抽出に効果的です。
私たちの結果は、機械学習のためのマルチパーティプロトコルにおける暗号化プライバシ保証の関連性に疑問を投げかけました。
論文 参考訳(メタデータ) (2022-03-31T18:06:28Z) - FaceLeaks: Inference Attacks against Transfer Learning Models via
Black-box Queries [2.7564955518050693]
教師モデルと直接対話することなく,個人情報を漏らしたり推測したりできるかどうかを検討する。
集約レベル情報から推測する新しい手法を提案する。
本研究は,情報漏洩が現実の状況で広く利用されている伝達学習フレームワークに対する真のプライバシー上の脅威であることを示す。
論文 参考訳(メタデータ) (2020-10-27T03:02:40Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。