論文の概要: Rethinking Membership Inference Attacks Against Transfer Learning
- arxiv url: http://arxiv.org/abs/2501.11577v1
- Date: Mon, 20 Jan 2025 16:28:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:23:05.047745
- Title: Rethinking Membership Inference Attacks Against Transfer Learning
- Title(参考訳): 転職学習に対する会員推論攻撃の再考
- Authors: Cong Wu, Jing Chen, Qianru Fang, Kun He, Ziming Zhao, Hao Ren, Guowen Xu, Yang Liu, Yang Xiang,
- Abstract要約: ホワイトボックス設定で生徒モデルにのみアクセスしながら、教師モデルを訓練するために特定のデータポイントを用いていたかどうかを判定するために、転送学習に対する新たなMIAベクトルを提案する。
本手法は,学生モデルにのみアクセス可能な攻撃者であっても,教師モデルのトレーニングデータがMIAの影響を受けないことを示す。
- 参考スコア(独自算出の注目度): 26.252438910082667
- License:
- Abstract: Transfer learning, successful in knowledge translation across related tasks, faces a substantial privacy threat from membership inference attacks (MIAs). These attacks, despite posing significant risk to ML model's training data, remain limited-explored in transfer learning. The interaction between teacher and student models in transfer learning has not been thoroughly explored in MIAs, potentially resulting in an under-examined aspect of privacy vulnerabilities within transfer learning. In this paper, we propose a new MIA vector against transfer learning, to determine whether a specific data point was used to train the teacher model while only accessing the student model in a white-box setting. Our method delves into the intricate relationship between teacher and student models, analyzing the discrepancies in hidden layer representations between the student model and its shadow counterpart. These identified differences are then adeptly utilized to refine the shadow model's training process and to inform membership inference decisions effectively. Our method, evaluated across four datasets in diverse transfer learning tasks, reveals that even when an attacker only has access to the student model, the teacher model's training data remains susceptible to MIAs. We believe our work unveils the unexplored risk of membership inference in transfer learning.
- Abstract(参考訳): 伝達学習は、関連するタスク間の知識翻訳に成功し、メンバーシップ推論攻撃(MIA)による実質的なプライバシー上の脅威に直面している。
これらの攻撃は、MLモデルのトレーニングデータに重大なリスクがあるにもかかわらず、移行学習において限定的に探索されたままである。
トランスファーラーニングにおける教師モデルと学生モデルとの相互作用は、MIAでは十分に解明されていないため、トランスファーラーニングにおけるプライバシーの脆弱性の過小評価の側面が生じる可能性がある。
本稿では,学生モデルにホワイトボックス設定でのみアクセスしながら,教師モデルをトレーニングするために特定のデータポイントを用いていたかどうかを判定する,トランスファー学習に対する新たなMIAベクトルを提案する。
本手法は,教師モデルと学生モデルとの複雑な関係を解明し,学生モデルと学生モデルとの隠れ層表現の相違を解析する。
これらの識別された差異は、シャドウモデルのトレーニングプロセスを洗練し、メンバーシップ推論決定を効果的に通知するために、十分に利用されます。
本手法は,学生モデルにのみアクセス可能な攻撃者であっても,教師モデルのトレーニングデータがMIAの影響を受けないことを示す。
我々の研究は、トランスファーラーニングにおける会員推測の未解決のリスクを明らかにしていると信じている。
関連論文リスト
- Assessing Privacy Risks in Language Models: A Case Study on
Summarization Tasks [65.21536453075275]
我々は要約作業に焦点をあて、会員推測(MI)攻撃について調査する。
テキストの類似性や文書修正に対するモデルの抵抗をMI信号として活用する。
我々は、MI攻撃から保護するための要約モデルの訓練と、プライバシとユーティリティの本質的にのトレードオフについて議論する。
論文 参考訳(メタデータ) (2023-10-20T05:44:39Z) - Transition-Aware Multi-Activity Knowledge Tracing [2.9778695679660188]
知識追跡は、学生の学習活動のシーケンスから学生の知識状態をモデル化することを目的としている。
現在のKTソリューションは、非評価学習活動からの学習をモデル化するのに適していない。
遷移対応多行動知識追跡(TAMKOT)を提案する。
論文 参考訳(メタデータ) (2023-01-26T21:49:24Z) - Learning to Learn Transferable Attack [77.67399621530052]
転送逆行攻撃は非自明なブラックボックス逆行攻撃であり、サロゲートモデル上で敵の摂動を発生させ、そのような摂動を被害者モデルに適用することを目的としている。
本研究では,データとモデル拡張の両方から学習することで,敵の摂動をより一般化する学習可能な攻撃学習法(LLTA)を提案する。
提案手法の有効性を実証し, 現状の手法と比較して, 12.85%のトランスファー攻撃の成功率で検証した。
論文 参考訳(メタデータ) (2021-12-10T07:24:21Z) - Teacher Model Fingerprinting Attacks Against Transfer Learning [23.224444604615123]
転校学習における教師モデル曝露の脅威を包括的に調査する。
本稿では,学生モデルの起源を推定するために,教師モデルフィンガープリント攻撃を提案する。
我々の攻撃は、探索クエリがほとんどないモデルの起源を正確に識別できることを示します。
論文 参考訳(メタデータ) (2021-06-23T15:52:35Z) - Delving into Data: Effectively Substitute Training for Black-box Attack [84.85798059317963]
本稿では,知識盗むプロセスで使用されるデータの分散設計に焦点をあてた,新しい視点代替トレーニングを提案する。
これら2つのモジュールの組み合わせにより、代替モデルとターゲットモデルの一貫性がさらに向上し、敵攻撃の有効性が大幅に向上する。
論文 参考訳(メタデータ) (2021-04-26T07:26:29Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z) - TransMIA: Membership Inference Attacks Using Transfer Shadow Training [5.22523722171238]
本稿では、トランスファー学習を用いたトランスファー学習に基づくメンバーシップ推論攻撃(Transfer Learning-based Membership Inference Attacks)を提案する。
特に,提案手法では,移動モデルのパラメータを用いてシャドウモデルを構築する手法を提案する。
我々は、2つの実際のデータセットを用いて攻撃を評価し、我々の攻撃が我々の転送シャドウトレーニング技術を使用しない最先端技術よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-11-30T10:03:43Z) - FaceLeaks: Inference Attacks against Transfer Learning Models via
Black-box Queries [2.7564955518050693]
教師モデルと直接対話することなく,個人情報を漏らしたり推測したりできるかどうかを検討する。
集約レベル情報から推測する新しい手法を提案する。
本研究は,情報漏洩が現実の状況で広く利用されている伝達学習フレームワークに対する真のプライバシー上の脅威であることを示す。
論文 参考訳(メタデータ) (2020-10-27T03:02:40Z) - Privacy Analysis of Deep Learning in the Wild: Membership Inference
Attacks against Transfer Learning [27.494206948563885]
本稿では,転送学習モデルに対するメンバシップ推論攻撃の最初の体系的評価について述べる。
4つの実世界の画像データセットに対する実験により、メンバーシップ推論が効果的なパフォーマンスを達成できることが示されている。
我々の結果は、実際に機械学習モデルから生じるメンバーシップリスクの深刻さを浮き彫りにした。
論文 参考訳(メタデータ) (2020-09-10T14:14:22Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。