論文の概要: ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models
- arxiv url: http://arxiv.org/abs/2102.02551v1
- Date: Thu, 4 Feb 2021 11:35:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-06 04:35:30.412596
- Title: ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models
- Title(参考訳): ML-Doctor:機械学習モデルに対する推論攻撃の全体的リスク評価
- Authors: Yugeng Liu and Rui Wen and Xinlei He and Ahmed Salem and Zhikun Zhang
and Michael Backes and Emiliano De Cristofaro and Mario Fritz and Yang Zhang
- Abstract要約: 機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
- 参考スコア(独自算出の注目度): 64.03398193325572
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Inference attacks against Machine Learning (ML) models allow adversaries to
learn information about training data, model parameters, etc. While researchers
have studied these attacks thoroughly, they have done so in isolation. We lack
a comprehensive picture of the risks caused by the attacks, such as the
different scenarios they can be applied to, the common factors that influence
their performance, the relationship among them, or the effectiveness of defense
techniques. In this paper, we fill this gap by presenting a first-of-its-kind
holistic risk assessment of different inference attacks against machine
learning models. We concentrate on four attacks - namely, membership inference,
model inversion, attribute inference, and model stealing - and establish a
threat model taxonomy. Our extensive experimental evaluation conducted over
five model architectures and four datasets shows that the complexity of the
training dataset plays an important role with respect to the attack's
performance, while the effectiveness of model stealing and membership inference
attacks are negatively correlated. We also show that defenses like DP-SGD and
Knowledge Distillation can only hope to mitigate some of the inference attacks.
Our analysis relies on a modular re-usable software, ML-Doctor, which enables
ML model owners to assess the risks of deploying their models, and equally
serves as a benchmark tool for researchers and practitioners.
- Abstract(参考訳): 機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどの情報を学ぶことができる。
研究者はこれらの攻撃を徹底的に研究していますが、彼らは孤立しています。
攻撃によって生じるリスク、例えば、適用できるさまざまなシナリオ、それらのパフォーマンスに影響を与える共通の要因、それらの間の関係、または防御技術の有効性など、包括的なイメージが欠けています。
本稿では,このギャップを,機械学習モデルに対する異なる推論攻撃の総合的リスク評価によって埋める。
メンバシップ推論、モデルインバージョン、属性推論、モデルの盗みという4つの攻撃に集中し、脅威モデルの分類を確立します。
5つのモデルアーキテクチャと4つのデータセットを対象とした広範な実験により,トレーニングデータセットの複雑性が攻撃性能に重要な役割を担っていること,一方,モデル盗みとメンバシップ推論攻撃の有効性は負の相関関係にあることが示された。
また,DP-SGDやKnowledge Distillationのような防衛手段が,推論攻撃の軽減を期待できることも示している。
私たちの分析は、モジュール化された再利用可能なソフトウェアであるml-doctorに依存しており、mlモデルオーナがモデルデプロイのリスクを評価できるようにしています。
関連論文リスト
- Holistic risk assessment of inference attacks in machine learning [4.493526120297708]
本稿では,機械学習モデルに対する異なる推論攻撃の全体的リスク評価を行う。
AlexNet、ResNet18、Simple CNNを含む3つのモデルアーキテクチャを使用して、合計12のターゲットモデルが4つのデータセットでトレーニングされている。
論文 参考訳(メタデータ) (2022-12-15T08:14:18Z) - Interpretations Cannot Be Trusted: Stealthy and Effective Adversarial
Perturbations against Interpretable Deep Learning [16.13790238416691]
この研究はAdvEdgeとAdvEdge$+$という2つの攻撃を導入し、ターゲットのディープラーニングモデルと組み合わせた解釈モデルの両方を欺いた。
我々の分析は、ディープラーニングモデルとそのインタプリタを騙すという観点から、我々の攻撃の有効性を示している。
論文 参考訳(メタデータ) (2022-11-29T04:45:10Z) - On the Robustness of Ensemble-Based Machine Learning Against Data
Poisoning [59.92672830088336]
機械学習では、トレーニングセット(中毒)の分画の摂動が、モデルの精度を著しく損なう可能性がある。
毒殺攻撃や防御の研究は、ディープニューラルネットワークの導入よりも以前まで遡る。
本稿では,機械学習のロバスト性に対するハッシュベースのアンサンブル手法を実装し,ランダムな森林における適用性と性能を評価する。
論文 参考訳(メタデータ) (2022-09-28T11:41:38Z) - A Unified Evaluation of Textual Backdoor Learning: Frameworks and
Benchmarks [72.7373468905418]
我々は,テキストバックドア学習の実装と評価を促進するオープンソースツールキットOpenBackdoorを開発した。
また,単純なクラスタリングに基づく防御ベースラインであるCUBEを提案する。
論文 参考訳(メタデータ) (2022-06-17T02:29:23Z) - Enhanced Membership Inference Attacks against Machine Learning Models [9.26208227402571]
メンバーシップ推論攻撃は、モデルがトレーニングセット内の個々のデータポイントについてリークする個人情報の定量化に使用される。
我々は,AUCスコアを高い精度で達成できる新たな攻撃アルゴリズムを導き,その性能に影響を及ぼすさまざまな要因を強調した。
我々のアルゴリズムは、モデルにおけるプライバシ損失の極めて正確な近似を捉え、機械学習モデルにおけるプライバシリスクの正確かつ詳細な推定を行うためのツールとして使用することができる。
論文 参考訳(メタデータ) (2021-11-18T13:31:22Z) - Delving into Data: Effectively Substitute Training for Black-box Attack [84.85798059317963]
本稿では,知識盗むプロセスで使用されるデータの分散設計に焦点をあてた,新しい視点代替トレーニングを提案する。
これら2つのモジュールの組み合わせにより、代替モデルとターゲットモデルの一貫性がさらに向上し、敵攻撃の有効性が大幅に向上する。
論文 参考訳(メタデータ) (2021-04-26T07:26:29Z) - Learning to Attack: Towards Textual Adversarial Attacking in Real-world
Situations [81.82518920087175]
敵攻撃は、敵の例でディープニューラルネットワークを騙すことを目的としている。
本稿では、攻撃履歴から学習し、より効率的に攻撃を開始することができる強化学習に基づく攻撃モデルを提案する。
論文 参考訳(メタデータ) (2020-09-19T09:12:24Z) - Improving Robustness to Model Inversion Attacks via Mutual Information
Regularization [12.079281416410227]
本稿では,モデル逆転攻撃に対する防御機構について検討する。
MIは、ターゲット機械学習モデルへのアクセスからトレーニングデータ配布に関する情報を推測することを目的とした、プライバシ攻撃の一種である。
我々はMI攻撃に対するMID(Multual Information Regularization based Defense)を提案する。
論文 参考訳(メタデータ) (2020-09-11T06:02:44Z) - Privacy Analysis of Deep Learning in the Wild: Membership Inference
Attacks against Transfer Learning [27.494206948563885]
本稿では,転送学習モデルに対するメンバシップ推論攻撃の最初の体系的評価について述べる。
4つの実世界の画像データセットに対する実験により、メンバーシップ推論が効果的なパフォーマンスを達成できることが示されている。
我々の結果は、実際に機械学習モデルから生じるメンバーシップリスクの深刻さを浮き彫りにした。
論文 参考訳(メタデータ) (2020-09-10T14:14:22Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。