論文の概要: ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models
- arxiv url: http://arxiv.org/abs/2102.02551v1
- Date: Thu, 4 Feb 2021 11:35:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-06 04:35:30.412596
- Title: ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models
- Title(参考訳): ML-Doctor:機械学習モデルに対する推論攻撃の全体的リスク評価
- Authors: Yugeng Liu and Rui Wen and Xinlei He and Ahmed Salem and Zhikun Zhang
and Michael Backes and Emiliano De Cristofaro and Mario Fritz and Yang Zhang
- Abstract要約: 機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
- 参考スコア(独自算出の注目度): 64.03398193325572
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Inference attacks against Machine Learning (ML) models allow adversaries to
learn information about training data, model parameters, etc. While researchers
have studied these attacks thoroughly, they have done so in isolation. We lack
a comprehensive picture of the risks caused by the attacks, such as the
different scenarios they can be applied to, the common factors that influence
their performance, the relationship among them, or the effectiveness of defense
techniques. In this paper, we fill this gap by presenting a first-of-its-kind
holistic risk assessment of different inference attacks against machine
learning models. We concentrate on four attacks - namely, membership inference,
model inversion, attribute inference, and model stealing - and establish a
threat model taxonomy. Our extensive experimental evaluation conducted over
five model architectures and four datasets shows that the complexity of the
training dataset plays an important role with respect to the attack's
performance, while the effectiveness of model stealing and membership inference
attacks are negatively correlated. We also show that defenses like DP-SGD and
Knowledge Distillation can only hope to mitigate some of the inference attacks.
Our analysis relies on a modular re-usable software, ML-Doctor, which enables
ML model owners to assess the risks of deploying their models, and equally
serves as a benchmark tool for researchers and practitioners.
- Abstract(参考訳): 機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどの情報を学ぶことができる。
研究者はこれらの攻撃を徹底的に研究していますが、彼らは孤立しています。
攻撃によって生じるリスク、例えば、適用できるさまざまなシナリオ、それらのパフォーマンスに影響を与える共通の要因、それらの間の関係、または防御技術の有効性など、包括的なイメージが欠けています。
本稿では,このギャップを,機械学習モデルに対する異なる推論攻撃の総合的リスク評価によって埋める。
メンバシップ推論、モデルインバージョン、属性推論、モデルの盗みという4つの攻撃に集中し、脅威モデルの分類を確立します。
5つのモデルアーキテクチャと4つのデータセットを対象とした広範な実験により,トレーニングデータセットの複雑性が攻撃性能に重要な役割を担っていること,一方,モデル盗みとメンバシップ推論攻撃の有効性は負の相関関係にあることが示された。
また,DP-SGDやKnowledge Distillationのような防衛手段が,推論攻撃の軽減を期待できることも示している。
私たちの分析は、モジュール化された再利用可能なソフトウェアであるml-doctorに依存しており、mlモデルオーナがモデルデプロイのリスクを評価できるようにしています。
関連論文リスト
- SA-Attack: Improving Adversarial Transferability of Vision-Language
Pre-training Models via Self-Augmentation [56.622250514119294]
ホワイトボックスの敵攻撃とは対照的に、転送攻撃は現実世界のシナリオをより反映している。
本稿では,SA-Attackと呼ばれる自己拡張型転送攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-12-08T09:08:50Z) - SecurityNet: Assessing Machine Learning Vulnerabilities on Public Models [74.58014281829946]
本研究では, モデル盗難攻撃, メンバーシップ推論攻撃, パブリックモデルにおけるバックドア検出など, いくつかの代表的な攻撃・防御の有効性を解析する。
実験により,これらの攻撃・防御性能は,自己学習モデルと比較して,公共モデルによって大きく異なることが示された。
論文 参考訳(メタデータ) (2023-10-19T11:49:22Z) - Can Adversarial Examples Be Parsed to Reveal Victim Model Information? [62.814751479749695]
本研究では,データ固有の敵インスタンスから,データに依存しない被害者モデル(VM)情報を推測できるかどうかを問う。
我々は,135件の被害者モデルから生成された7種類の攻撃に対して,敵攻撃のデータセットを収集する。
単純な教師付きモデル解析ネットワーク(MPN)は、見えない敵攻撃からVM属性を推測できることを示す。
論文 参考訳(メタデータ) (2023-03-13T21:21:49Z) - AUTOLYCUS: Exploiting Explainable AI (XAI) for Model Extraction Attacks against Interpretable Models [1.8752655643513647]
XAIツールは、モデル抽出攻撃の脆弱性を増大させる可能性がある。
そこで本研究では,ブラックボックス設定下での解釈可能なモデルに対して,新たなリトレーニング(学習)に基づくモデル抽出攻撃フレームワークを提案する。
AUTOLYCUSは非常に効果的で、最先端の攻撃に比べてクエリが大幅に少ないことが示される。
論文 参考訳(メタデータ) (2023-02-04T13:23:39Z) - Holistic risk assessment of inference attacks in machine learning [4.493526120297708]
本稿では,機械学習モデルに対する異なる推論攻撃の全体的リスク評価を行う。
AlexNet、ResNet18、Simple CNNを含む3つのモデルアーキテクチャを使用して、合計12のターゲットモデルが4つのデータセットでトレーニングされている。
論文 参考訳(メタデータ) (2022-12-15T08:14:18Z) - Interpretations Cannot Be Trusted: Stealthy and Effective Adversarial
Perturbations against Interpretable Deep Learning [16.13790238416691]
この研究はAdvEdgeとAdvEdge$+$という2つの攻撃を導入し、ターゲットのディープラーニングモデルと組み合わせた解釈モデルの両方を欺いた。
我々の分析は、ディープラーニングモデルとそのインタプリタを騙すという観点から、我々の攻撃の有効性を示している。
論文 参考訳(メタデータ) (2022-11-29T04:45:10Z) - Enhanced Membership Inference Attacks against Machine Learning Models [9.26208227402571]
メンバーシップ推論攻撃は、モデルがトレーニングセット内の個々のデータポイントについてリークする個人情報の定量化に使用される。
我々は,AUCスコアを高い精度で達成できる新たな攻撃アルゴリズムを導き,その性能に影響を及ぼすさまざまな要因を強調した。
我々のアルゴリズムは、モデルにおけるプライバシ損失の極めて正確な近似を捉え、機械学習モデルにおけるプライバシリスクの正確かつ詳細な推定を行うためのツールとして使用することができる。
論文 参考訳(メタデータ) (2021-11-18T13:31:22Z) - Learning to Attack: Towards Textual Adversarial Attacking in Real-world
Situations [81.82518920087175]
敵攻撃は、敵の例でディープニューラルネットワークを騙すことを目的としている。
本稿では、攻撃履歴から学習し、より効率的に攻撃を開始することができる強化学習に基づく攻撃モデルを提案する。
論文 参考訳(メタデータ) (2020-09-19T09:12:24Z) - Improving Robustness to Model Inversion Attacks via Mutual Information
Regularization [12.079281416410227]
本稿では,モデル逆転攻撃に対する防御機構について検討する。
MIは、ターゲット機械学習モデルへのアクセスからトレーニングデータ配布に関する情報を推測することを目的とした、プライバシ攻撃の一種である。
我々はMI攻撃に対するMID(Multual Information Regularization based Defense)を提案する。
論文 参考訳(メタデータ) (2020-09-11T06:02:44Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。