論文の概要: Defending against Model Inversion Attacks via Random Erasing
- arxiv url: http://arxiv.org/abs/2409.01062v1
- Date: Mon, 2 Sep 2024 08:37:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-06 07:38:47.827570
- Title: Defending against Model Inversion Attacks via Random Erasing
- Title(参考訳): ランダム消去によるモデル反転攻撃に対する防御
- Authors: Viet-Hung Tran, Ngoc-Bao Nguyen, Son T. Mai, Hans Vandierendonck, Ngai-man Cheung,
- Abstract要約: モデル反転攻撃(MI)に対する新しい防御法を提案する。
我々の考えは、ランダム消去(RE)に関する新しい洞察に基づいている。
我々は、REがMI再構成の品質を著しく低下させ、攻撃精度を低下させることを示す。
- 参考スコア(独自算出の注目度): 24.04876860999608
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Model Inversion (MI) is a type of privacy violation that focuses on reconstructing private training data through abusive exploitation of machine learning models. To defend against MI attacks, state-of-the-art (SOTA) MI defense methods rely on regularizations that conflict with the training loss, creating explicit tension between privacy protection and model utility. In this paper, we present a new method to defend against MI attacks. Our method takes a new perspective and focuses on training data. Our idea is based on a novel insight on Random Erasing (RE), which has been applied in the past as a data augmentation technique to improve the model accuracy under occlusion. In our work, we instead focus on applying RE for degrading MI attack accuracy. Our key insight is that MI attacks require significant amount of private training data information encoded inside the model in order to reconstruct high-dimensional private images. Therefore, we propose to apply RE to reduce private information presented to the model during training. We show that this can lead to substantial degradation in MI reconstruction quality and attack accuracy. Meanwhile, natural accuracy of the model is only moderately affected. Our method is very simple to implement and complementary to existing defense methods. Our extensive experiments of 23 setups demonstrate that our method can achieve SOTA performance in balancing privacy and utility of the models. The results consistently demonstrate the superiority of our method over existing defenses across different MI attacks, network architectures, and attack configurations.
- Abstract(参考訳): Model Inversion(MI)は、マシンラーニングモデルの悪用を通じてプライベートトレーニングデータを再構築することに焦点を当てた、プライバシー侵害の一種である。
MI攻撃に対抗するため、SOTA(State-of-the-art)MI防衛法はトレーニング損失と矛盾する正規化に依存し、プライバシ保護とモデルユーティリティの間に明確な緊張を生じさせる。
本稿では,MI攻撃に対する防御方法を新たに提案する。
我々の手法は新たな視点を採り、トレーニングデータに焦点をあてる。
我々のアイデアは、過去にデータ拡張技術として応用されたランダム消去(RE)に関する新しい知見に基づいており、閉塞下でのモデルの精度を向上させる。
我々の研究では、MI攻撃精度の劣化にREを適用することに重点を置いている。
我々の重要な洞察は、MI攻撃は高次元のプライベートイメージを再構築するために、モデル内に符号化された大量のプライベートトレーニングデータ情報を必要とすることである。
そこで本研究では,トレーニング中のモデルに提示されるプライベート情報を減らすためにREを適用することを提案する。
その結果,MI復元の精度が著しく低下し,攻撃精度が低下する可能性が示唆された。
一方、モデルの自然な精度は適度にしか影響しない。
本手法は,既存の防衛手法を実装・補完することが極めて容易である。
提案手法は,モデルのプライバシと実用性のバランスをとる上で,SOTAの性能を実現することができることを示す。
その結果,MI攻撃,ネットワークアーキテクチャ,アタック構成にまたがる既存の防御よりも,我々の手法が優れていることを一貫して示している。
関連論文リスト
- Model Inversion Robustness: Can Transfer Learning Help? [27.883074562565877]
Model Inversion (MI)攻撃は、機械学習モデルへのアクセスを悪用することで、プライベートトレーニングデータを再構築することを目的としている。
我々は,MI-robustモデルをレンダリングするために,Transfer Learning-based Defense against Model Inversion (TL-DMI)を提案する。
ベルとホイッスルを使わずにSOTA(State-of-the-art)MIロバスト性を実現する。
論文 参考訳(メタデータ) (2024-05-09T07:24:28Z) - MIST: Defending Against Membership Inference Attacks Through Membership-Invariant Subspace Training [20.303439793769854]
メンバー推論(MI)攻撃は、プライベートデータを使用して機械学習(ML)モデルをトレーニングする際の大きなプライバシー上の問題である。
我々はMI攻撃を防御する新しいメンバーシップ・不変部分空間訓練(MIST)手法を提案する。
論文 参考訳(メタデータ) (2023-11-02T01:25:49Z) - Isolation and Induction: Training Robust Deep Neural Networks against
Model Stealing Attacks [51.51023951695014]
既存のモデル盗難防衛は、被害者の後部確率に偽りの摂動を加え、攻撃者を誤解させる。
本稿では,モデルステルス防衛のための新規かつ効果的なトレーニングフレームワークである分離誘導(InI)を提案する。
モデルの精度を損なうモデル予測に摂動を加えるのとは対照的に、我々はモデルを訓練して、盗むクエリに対して非形式的なアウトプットを生成する。
論文 参考訳(メタデータ) (2023-08-02T05:54:01Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Re-thinking Model Inversion Attacks Against Deep Neural Networks [34.87141698143304]
モデルインバージョン(MI)攻撃は、モデルへのアクセスを悪用することで、プライベートトレーニングデータを推論し、再構築することを目的としている。
MIの最近のアルゴリズムは攻撃性能を改善するために提案されている。
我々は、すべての最先端(SOTA)MIアルゴリズムに関する2つの基本的な問題について研究する。
論文 参考訳(メタデータ) (2023-04-04T09:58:07Z) - CANIFE: Crafting Canaries for Empirical Privacy Measurement in Federated
Learning [77.27443885999404]
Federated Learning(FL)は、分散環境で機械学習モデルをトレーニングするための設定である。
本稿では,訓練ラウンドの経験的プライバシを評価するために,強敵による慎重なサンプル作成手法であるCANIFEを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:30:16Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z) - Improving Robustness to Model Inversion Attacks via Mutual Information
Regularization [12.079281416410227]
本稿では,モデル逆転攻撃に対する防御機構について検討する。
MIは、ターゲット機械学習モデルへのアクセスからトレーニングデータ配布に関する情報を推測することを目的とした、プライバシ攻撃の一種である。
我々はMI攻撃に対するMID(Multual Information Regularization based Defense)を提案する。
論文 参考訳(メタデータ) (2020-09-11T06:02:44Z) - How Does Data Augmentation Affect Privacy in Machine Learning? [94.52721115660626]
拡張データの情報を活用するために,新たなMI攻撃を提案する。
モデルが拡張データで訓練された場合、最適な会員推定値を確立する。
論文 参考訳(メタデータ) (2020-07-21T02:21:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。