論文の概要: How to Combine Membership-Inference Attacks on Multiple Updated Models
- arxiv url: http://arxiv.org/abs/2205.06369v1
- Date: Thu, 12 May 2022 21:14:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-16 14:04:48.283928
- Title: How to Combine Membership-Inference Attacks on Multiple Updated Models
- Title(参考訳): 複数の更新モデルにおけるメンバーシップ推論攻撃の組合せ
- Authors: Matthew Jagielski, Stanley Wu, Alina Oprea, Jonathan Ullman, Roxana
Geambasu
- Abstract要約: 本稿では,1つ以上のモデル更新を利用する新たな攻撃を提案し,メンバーシップ推論(MI)を改善する。
このアプローチの重要な部分は、オリジナルのモデルと更新されたモデルとを別々に実装したスタンドアロンMI攻撃からの豊富な情報を活用することです。
4つの公開データセットの結果から、我々の攻撃はアップデート情報を使用することで、敵がスタンドアロンモデルに対する攻撃に対して大きな優位性を持つことを示す。
- 参考スコア(独自算出の注目度): 14.281721121930035
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A large body of research has shown that machine learning models are
vulnerable to membership inference (MI) attacks that violate the privacy of the
participants in the training data. Most MI research focuses on the case of a
single standalone model, while production machine-learning platforms often
update models over time, on data that often shifts in distribution, giving the
attacker more information. This paper proposes new attacks that take advantage
of one or more model updates to improve MI. A key part of our approach is to
leverage rich information from standalone MI attacks mounted separately against
the original and updated models, and to combine this information in specific
ways to improve attack effectiveness. We propose a set of combination functions
and tuning methods for each, and present both analytical and quantitative
justification for various options. Our results on four public datasets show
that our attacks are effective at using update information to give the
adversary a significant advantage over attacks on standalone models, but also
compared to a prior MI attack that takes advantage of model updates in a
related machine-unlearning setting. We perform the first measurements of the
impact of distribution shift on MI attacks with model updates, and show that a
more drastic distribution shift results in significantly higher MI risk than a
gradual shift. Our code is available at
https://www.github.com/stanleykywu/model-updates.
- Abstract(参考訳): 機械学習モデルは、トレーニングデータの参加者のプライバシに反するメンバーシップ推論(MI)攻撃に弱いことが、大規模な研究で示されている。
ほとんどのMI研究は、単一のスタンドアロンモデルの場合に焦点を当てている一方、本番の機械学習プラットフォームは、しばしば分散がシフトするデータに基づいて、時間とともにモデルを更新し、攻撃者により多くの情報を与える。
本稿では、MIを改善するために、1つ以上のモデル更新を利用する新たな攻撃を提案する。
我々のアプローチの重要な部分は、元のモデルと更新されたモデルに対して個別にマウントされたスタンドアロンMI攻撃からの豊富な情報を活用し、これらの情報を特定の方法で組み合わせて攻撃の有効性を向上させることである。
本稿では,それぞれの組み合わせ関数とチューニング手法のセットを提案し,様々な選択肢について解析的および定量的に正当性を示す。
4つの公開データセットから得られた結果から,我々の攻撃は,スタンドアロンモデルに対する攻撃に対して,敵に重大な優位性を与えるために更新情報を使用するのに有効であることが示された。
モデル更新によるMI攻撃に対する分布シフトの影響の初回測定を行い、より劇的な分布シフトにより、段階的な変化よりもMIリスクが著しく高いことを示す。
私たちのコードはhttps://www.github.com/stanleykywu/model-updatesで利用可能です。
関連論文リスト
- Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Practical Membership Inference Attacks Against Large-Scale Multi-Modal
Models: A Pilot Study [17.421886085918608]
メンバーシップ推論攻撃(MIA)は、機械学習モデルのトレーニングにデータポイントを使用したかどうかを推測することを目的としている。
これらの攻撃は、潜在的なプライバシー上の脆弱性を特定し、個人データの不正使用を検出するために使用できる。
本稿では,大規模マルチモーダルモデルに対する実用的なMIAの開発に向けて第一歩を踏み出す。
論文 参考訳(メタデータ) (2023-09-29T19:38:40Z) - Information Leakage from Data Updates in Machine Learning Models [12.337195143722342]
我々は、最新の情報を組み込んだり、分散シフトを反映するために、機械学習モデルが更新データセット上で再トレーニングされる環境を検討する。
ここでは、敵はデータセットの変更前後で機械学習モデルのスナップショットにアクセスする。
本稿では,元のモデルと更新モデルの予測信頼度の違いに基づく攻撃を提案する。
論文 参考訳(メタデータ) (2023-09-20T02:55:03Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - Delving into Data: Effectively Substitute Training for Black-box Attack [84.85798059317963]
本稿では,知識盗むプロセスで使用されるデータの分散設計に焦点をあてた,新しい視点代替トレーニングを提案する。
これら2つのモジュールの組み合わせにより、代替モデルとターゲットモデルの一貫性がさらに向上し、敵攻撃の有効性が大幅に向上する。
論文 参考訳(メタデータ) (2021-04-26T07:26:29Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z) - Improving Robustness to Model Inversion Attacks via Mutual Information
Regularization [12.079281416410227]
本稿では,モデル逆転攻撃に対する防御機構について検討する。
MIは、ターゲット機械学習モデルへのアクセスからトレーニングデータ配布に関する情報を推測することを目的とした、プライバシ攻撃の一種である。
我々はMI攻撃に対するMID(Multual Information Regularization based Defense)を提案する。
論文 参考訳(メタデータ) (2020-09-11T06:02:44Z) - How Does Data Augmentation Affect Privacy in Machine Learning? [94.52721115660626]
拡張データの情報を活用するために,新たなMI攻撃を提案する。
モデルが拡張データで訓練された場合、最適な会員推定値を確立する。
論文 参考訳(メタデータ) (2020-07-21T02:21:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。