論文の概要: Improving Robustness to Model Inversion Attacks via Mutual Information
Regularization
- arxiv url: http://arxiv.org/abs/2009.05241v2
- Date: Tue, 22 Sep 2020 04:35:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 21:59:27.937732
- Title: Improving Robustness to Model Inversion Attacks via Mutual Information
Regularization
- Title(参考訳): 相互情報正規化によるモデルインバージョン攻撃のロバスト性向上
- Authors: Tianhao Wang, Yuheng Zhang, Ruoxi Jia
- Abstract要約: 本稿では,モデル逆転攻撃に対する防御機構について検討する。
MIは、ターゲット機械学習モデルへのアクセスからトレーニングデータ配布に関する情報を推測することを目的とした、プライバシ攻撃の一種である。
我々はMI攻撃に対するMID(Multual Information Regularization based Defense)を提案する。
- 参考スコア(独自算出の注目度): 12.079281416410227
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper studies defense mechanisms against model inversion (MI) attacks --
a type of privacy attacks aimed at inferring information about the training
data distribution given the access to a target machine learning model. Existing
defense mechanisms rely on model-specific heuristics or noise injection. While
being able to mitigate attacks, existing methods significantly hinder model
performance. There remains a question of how to design a defense mechanism that
is applicable to a variety of models and achieves better utility-privacy
tradeoff. In this paper, we propose the Mutual Information Regularization based
Defense (MID) against MI attacks. The key idea is to limit the information
about the model input contained in the prediction, thereby limiting the ability
of an adversary to infer the private training attributes from the model
prediction. Our defense principle is model-agnostic and we present tractable
approximations to the regularizer for linear regression, decision trees, and
neural networks, which have been successfully attacked by prior work if not
attached with any defenses. We present a formal study of MI attacks by devising
a rigorous game-based definition and quantifying the associated information
leakage. Our theoretical analysis sheds light on the inefficacy of DP in
defending against MI attacks, which has been empirically observed in several
prior works. Our experiments demonstrate that MID leads to state-of-the-art
performance for a variety of MI attacks, target models and datasets.
- Abstract(参考訳): 本稿では,モデル逆転攻撃(MI)に対する防御機構について検討する。これは,ターゲット機械学習モデルへのアクセスからトレーニングデータ分布に関する情報を推測することを目的としたプライバシー攻撃の一種である。
既存の防御機構はモデル固有のヒューリスティックやノイズインジェクションに依存している。
攻撃を緩和できる一方で、既存の手法はモデル性能を著しく阻害する。
様々なモデルに適用可能な防御機構を設計し、より良いユーティリティとプライバシのトレードオフを実現する方法についてはまだ疑問が残る。
本稿では,mi攻撃に対する相互情報正規化に基づく防御(mid)を提案する。
鍵となるアイデアは、予測に含まれるモデル入力に関する情報を制限することで、モデル予測からプライベートトレーニング属性を推測する敵の能力を制限することである。
我々の防御原理はモデルに依存しないものであり、線形回帰、決定木、ニューラルネットワークのための正則化器にトラクタブル近似を提示する。
我々は、厳密なゲームベース定義を考案し、関連する情報漏洩を定量化することにより、MI攻撃の正式な研究を行う。
筆者らの理論的分析は,いくつかの先行研究で実証的に観察されているMI攻撃に対するDPの防御効果に光を当てている。
実験により、midは様々なmi攻撃、ターゲットモデル、データセットに対して最先端のパフォーマンスをもたらすことを実証した。
関連論文リスト
- CALoR: Towards Comprehensive Model Inversion Defense [43.2642796582236]
Model Inversion Attacks (MIAs)は、プライバシに敏感なトレーニングデータを、リリースされた機械学習モデルにエンコードされた知識から回復することを目的としている。
MIA分野の最近の進歩は、複数のシナリオにおける攻撃性能を大幅に向上させた。
信頼性適応と低ランク圧縮を統合した堅牢な防御機構を提案する。
論文 参考訳(メタデータ) (2024-10-08T08:44:01Z) - Defending against Model Inversion Attacks via Random Erasing [24.04876860999608]
モデル反転攻撃(MI)に対する新しい防御法を提案する。
我々の考えは、ランダム消去(RE)に関する新しい洞察に基づいている。
我々は、REがMI再構成の品質を著しく低下させ、攻撃精度を低下させることを示す。
論文 参考訳(メタデータ) (2024-09-02T08:37:17Z) - Isolation and Induction: Training Robust Deep Neural Networks against
Model Stealing Attacks [51.51023951695014]
既存のモデル盗難防衛は、被害者の後部確率に偽りの摂動を加え、攻撃者を誤解させる。
本稿では,モデルステルス防衛のための新規かつ効果的なトレーニングフレームワークである分離誘導(InI)を提案する。
モデルの精度を損なうモデル予測に摂動を加えるのとは対照的に、我々はモデルを訓練して、盗むクエリに対して非形式的なアウトプットを生成する。
論文 参考訳(メタデータ) (2023-08-02T05:54:01Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - DODEM: DOuble DEfense Mechanism Against Adversarial Attacks Towards
Secure Industrial Internet of Things Analytics [8.697883716452385]
I-IoT環境における敵攻撃の検出と軽減のための二重防御機構を提案する。
まず、新規性検出アルゴリズムを用いて、サンプルに対して逆攻撃があるかどうかを検知する。
攻撃があった場合、敵の再訓練はより堅牢なモデルを提供する一方、通常のサンプルに対して標準的な訓練を適用する。
論文 参考訳(メタデータ) (2023-01-23T22:10:40Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - I Know What You Trained Last Summer: A Survey on Stealing Machine
Learning Models and Defences [0.1031296820074812]
本研究では,モデル盗難攻撃について検討し,その性能を評価し,異なる環境で対応する防御技術を探究する。
攻撃・防衛アプローチのための分類法を提案し,目標と利用可能な資源に基づいて適切な攻撃・防衛を選択する方法に関するガイドラインを提供する。
論文 参考訳(メタデータ) (2022-06-16T21:16:41Z) - Delving into Data: Effectively Substitute Training for Black-box Attack [84.85798059317963]
本稿では,知識盗むプロセスで使用されるデータの分散設計に焦点をあてた,新しい視点代替トレーニングを提案する。
これら2つのモジュールの組み合わせにより、代替モデルとターゲットモデルの一貫性がさらに向上し、敵攻撃の有効性が大幅に向上する。
論文 参考訳(メタデータ) (2021-04-26T07:26:29Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。