論文の概要: Privacy Analysis of Deep Learning in the Wild: Membership Inference
Attacks against Transfer Learning
- arxiv url: http://arxiv.org/abs/2009.04872v1
- Date: Thu, 10 Sep 2020 14:14:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 03:11:12.887843
- Title: Privacy Analysis of Deep Learning in the Wild: Membership Inference
Attacks against Transfer Learning
- Title(参考訳): 野生における深層学習のプライバシ分析:移動学習に対する会員推論攻撃
- Authors: Yang Zou, Zhikun Zhang, Michael Backes, Yang Zhang
- Abstract要約: 本稿では,転送学習モデルに対するメンバシップ推論攻撃の最初の体系的評価について述べる。
4つの実世界の画像データセットに対する実験により、メンバーシップ推論が効果的なパフォーマンスを達成できることが示されている。
我々の結果は、実際に機械学習モデルから生じるメンバーシップリスクの深刻さを浮き彫りにした。
- 参考スコア(独自算出の注目度): 27.494206948563885
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While being deployed in many critical applications as core components,
machine learning (ML) models are vulnerable to various security and privacy
attacks. One major privacy attack in this domain is membership inference, where
an adversary aims to determine whether a target data sample is part of the
training set of a target ML model. So far, most of the current membership
inference attacks are evaluated against ML models trained from scratch.
However, real-world ML models are typically trained following the transfer
learning paradigm, where a model owner takes a pretrained model learned from a
different dataset, namely teacher model, and trains her own student model by
fine-tuning the teacher model with her own data.
In this paper, we perform the first systematic evaluation of membership
inference attacks against transfer learning models. We adopt the strategy of
shadow model training to derive the data for training our membership inference
classifier. Extensive experiments on four real-world image datasets show that
membership inference can achieve effective performance. For instance, on the
CIFAR100 classifier transferred from ResNet20 (pretrained with Caltech101), our
membership inference achieves $95\%$ attack AUC. Moreover, we show that
membership inference is still effective when the architecture of target model
is unknown. Our results shed light on the severity of membership risks stemming
from machine learning models in practice.
- Abstract(参考訳): 多くの重要なアプリケーションにコアコンポーネントとしてデプロイされる一方で、機械学習(ml)モデルは、さまざまなセキュリティおよびプライバシ攻撃に対して脆弱である。
このドメインにおける主要なプライバシ攻撃は、メンバーシップ推論であり、敵はターゲットデータサンプルがターゲットMLモデルのトレーニングセットの一部であるかどうかを判断することを目的としている。
これまでのところ、現在のメンバシップ推論攻撃のほとんどは、スクラッチからトレーニングされたMLモデルに対して評価されている。
しかし、現実のMLモデルは、モデル所有者が異なるデータセット、すなわち教師モデルから学習した事前訓練されたモデルを取り、教師モデルにデータで微調整することで生徒モデルを訓練する、移行学習パラダイムに従って訓練されるのが一般的である。
本稿では,転送学習モデルに対するメンバシップ推論攻撃の最初の体系的評価を行う。
シャドーモデルトレーニングの戦略を採用して,メンバシップ推論分類器のトレーニング用データを導出する。
4つの実世界の画像データセットに対する大規模な実験は、メンバーシップ推論が効果的なパフォーマンスを達成することを示す。
例えば、ResNet20から転送されたCIFAR100分類器(Caltech101で事前トレーニングされている)では、会員推定は9,5\%の攻撃AUCを達成する。
さらに,対象モデルのアーキテクチャが不明な場合,メンバーシップ推定が依然として有効であることを示す。
我々の結果は、実際に機械学習モデルから生じるメンバーシップリスクの深刻さを浮き彫りにした。
関連論文リスト
- Order of Magnitude Speedups for LLM Membership Inference [5.124111136127848]
大規模言語モデル(LLM)は、コンピューティングを広く革新させるという約束を持っているが、その複雑さと広範なトレーニングデータもまた、プライバシの脆弱性を露呈している。
LLMに関連する最も単純なプライバシーリスクの1つは、メンバーシップ推論攻撃(MIA)に対する感受性である。
文書がモデルのトレーニングセットに属しているか否かを判断するために,小さな量子レグレッションモデルのアンサンブルを利用する低コストMIAを提案する。
論文 参考訳(メタデータ) (2024-09-22T16:18:14Z) - Do Membership Inference Attacks Work on Large Language Models? [141.2019867466968]
メンバーシップ推論攻撃(MIA)は、特定のデータポイントがターゲットモデルのトレーニングデータのメンバーであるかどうかを予測しようとする。
我々は、Pileで訓練された言語モデルに対して、MIAの大規模評価を行い、そのパラメータは160Mから12Bまでである。
様々な LLM サイズや領域にまたがるほとんどの設定において,MIA はランダムな推測よりもほとんど優れていないことがわかった。
論文 参考訳(メタデータ) (2024-02-12T17:52:05Z) - SecurityNet: Assessing Machine Learning Vulnerabilities on Public Models [74.58014281829946]
本研究では, モデル盗難攻撃, メンバーシップ推論攻撃, パブリックモデルにおけるバックドア検出など, いくつかの代表的な攻撃・防御の有効性を解析する。
実験により,これらの攻撃・防御性能は,自己学習モデルと比較して,公共モデルによって大きく異なることが示された。
論文 参考訳(メタデータ) (2023-10-19T11:49:22Z) - CANIFE: Crafting Canaries for Empirical Privacy Measurement in Federated
Learning [77.27443885999404]
Federated Learning(FL)は、分散環境で機械学習モデルをトレーニングするための設定である。
本稿では,訓練ラウンドの経験的プライバシを評価するために,強敵による慎重なサンプル作成手法であるCANIFEを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:30:16Z) - Membership Inference Attacks by Exploiting Loss Trajectory [19.900473800648243]
そこで本研究では,対象モデルのトレーニングプロセス全体から,メンバシップ情報を利用する新たな攻撃手法であるシステムを提案する。
我々の攻撃は、既存の方法よりも0.1%低い偽陽性率で、少なくとも6$times$高い真陽性率を達成する。
論文 参考訳(メタデータ) (2022-08-31T16:02:26Z) - l-Leaks: Membership Inference Attacks with Logits [5.663757165885866]
我々はターゲットモデルへのブラックボックスアクセスに基づく攻撃を提示する。
ターゲットモデルのロジットを学習し、ターゲットモデルとよりよく似たシャドーモデルを構築することにより、シャドーモデルを構築する。
論文 参考訳(メタデータ) (2022-05-13T06:59:09Z) - Mitigating Membership Inference Attacks by Self-Distillation Through a
Novel Ensemble Architecture [44.2351146468898]
機械学習(ML)モデルにおいて、メンバシップ推論攻撃は、プライバシリークを評価する重要な手段である。
我々は、メンバーと非メンバーの入力に類似した振る舞いを誘発するプライバシー保護モデルをトレーニングするための新しいフレームワークを提案する。
また,SELENAは会員のプライバシーと実用性とのトレードオフが,最先端技術と比較して優れていることを示す。
論文 参考訳(メタデータ) (2021-10-15T19:22:52Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z) - Two Sides of the Same Coin: White-box and Black-box Attacks for Transfer
Learning [60.784641458579124]
ホワイトボックスFGSM攻撃によるモデルロバスト性を効果的に向上することを示す。
また,移動学習モデルに対するブラックボックス攻撃手法を提案する。
ホワイトボックス攻撃とブラックボックス攻撃の双方の効果を系統的に評価するために,ソースモデルからターゲットモデルへの変換可能性の評価手法を提案する。
論文 参考訳(メタデータ) (2020-08-25T15:04:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。