論文の概要: Re-thinking Model Inversion Attacks Against Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2304.01669v1
- Date: Tue, 4 Apr 2023 09:58:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-05 14:15:52.844969
- Title: Re-thinking Model Inversion Attacks Against Deep Neural Networks
- Title(参考訳): 深層ニューラルネットワークに対するモデル反転攻撃の再考
- Authors: Ngoc-Bao Nguyen, Keshigeyan Chandrasegaran, Milad Abdollahzadeh,
Ngai-Man Cheung
- Abstract要約: モデルインバージョン(MI)攻撃は、モデルへのアクセスを悪用することで、プライベートトレーニングデータを推論し、再構築することを目的としている。
MIの最近のアルゴリズムは攻撃性能を改善するために提案されている。
我々は、すべての最先端(SOTA)MIアルゴリズムに関する2つの基本的な問題について研究する。
- 参考スコア(独自算出の注目度): 34.87141698143304
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Model inversion (MI) attacks aim to infer and reconstruct private training
data by abusing access to a model. MI attacks have raised concerns about the
leaking of sensitive information (e.g. private face images used in training a
face recognition system). Recently, several algorithms for MI have been
proposed to improve the attack performance. In this work, we revisit MI, study
two fundamental issues pertaining to all state-of-the-art (SOTA) MI algorithms,
and propose solutions to these issues which lead to a significant boost in
attack performance for all SOTA MI. In particular, our contributions are
two-fold: 1) We analyze the optimization objective of SOTA MI algorithms, argue
that the objective is sub-optimal for achieving MI, and propose an improved
optimization objective that boosts attack performance significantly. 2) We
analyze "MI overfitting", show that it would prevent reconstructed images from
learning semantics of training data, and propose a novel "model augmentation"
idea to overcome this issue. Our proposed solutions are simple and improve all
SOTA MI attack accuracy significantly. E.g., in the standard CelebA benchmark,
our solutions improve accuracy by 11.8% and achieve for the first time over 90%
attack accuracy. Our findings demonstrate that there is a clear risk of leaking
sensitive information from deep learning models. We urge serious consideration
to be given to the privacy implications. Our code, demo, and models are
available at
https://ngoc-nguyen-0.github.io/re-thinking_model_inversion_attacks/
- Abstract(参考訳): model inversion (mi)攻撃は、モデルへのアクセスを乱用してプライベートトレーニングデータを推論し、再構築することを目的としている。
MI攻撃は機密情報の漏洩(例えば顔認識システムの訓練に使用されるプライベート・フェイス・イメージ)を懸念している。
近年,miによる攻撃性能向上のためのアルゴリズムが提案されている。
本研究では、MIを再検討し、全てのSOTAMIアルゴリズムに関する2つの基本的な問題について検討し、これらの問題に対する解決策を提案し、SOTAMIの攻撃性能を大幅に向上させる。
特に、私たちの貢献は2倍です。
1) sota miアルゴリズムの最適化目標を分析し,miを達成するのに最適でないと主張するとともに,攻撃性能を著しく向上させる最適化目標を提案する。
2)「mi過剰フィッティング」を分析し,復元画像がトレーニングデータのセマンティクスを学習することを防止し,この問題を克服するための新しい「モデル拡張」アイデアを提案する。
提案手法は単純で,SOTA MI攻撃の精度を大幅に向上させる。
例えば、標準celebaベンチマークでは、我々のソリューションは精度を11.8%向上させ、90%以上の攻撃精度を初めて達成しました。
その結果,深層学習モデルからセンシティブな情報を漏洩するリスクが明らかとなった。
我々はプライバシーに関する重大な配慮を要請する。
私たちのコード、デモ、モデルはhttps://ngoc-nguyen-0.github.io/re-thinking_model_inversion_ attacks/で利用可能です。
関連論文リスト
- What Do Learning Dynamics Reveal About Generalization in LLM Reasoning? [83.83230167222852]
モデルの一般化動作は,事前記憶列車の精度と呼ばれるトレーニング指標によって効果的に特徴づけられることがわかった。
モデルの学習行動と一般化を結びつけることで、トレーニング戦略に目標とする改善を導くことができる。
論文 参考訳(メタデータ) (2024-11-12T09:52:40Z) - Defending against Model Inversion Attacks via Random Erasing [24.04876860999608]
モデル反転攻撃(MI)に対する新しい防御法を提案する。
我々の考えは、ランダム消去(RE)に関する新しい洞察に基づいている。
我々は、REがMI再構成の品質を著しく低下させ、攻撃精度を低下させることを示す。
論文 参考訳(メタデータ) (2024-09-02T08:37:17Z) - Model Inversion Attacks Through Target-Specific Conditional Diffusion Models [54.69008212790426]
モデル反転攻撃(MIA)は、ターゲット分類器のトレーニングセットからプライベートイメージを再構築することを目的としており、それによってAIアプリケーションにおけるプライバシー上の懸念が高まる。
従来のGANベースのMIAは、GANの固有の欠陥と潜伏空間における最適化の偏りにより、劣った遺伝子的忠実度に悩まされる傾向にある。
これらの問題を緩和するために拡散モデル反転(Diff-MI)攻撃を提案する。
論文 参考訳(メタデータ) (2024-07-16T06:38:49Z) - Model Inversion Robustness: Can Transfer Learning Help? [27.883074562565877]
Model Inversion (MI)攻撃は、機械学習モデルへのアクセスを悪用することで、プライベートトレーニングデータを再構築することを目的としている。
我々は,MI-robustモデルをレンダリングするために,Transfer Learning-based Defense against Model Inversion (TL-DMI)を提案する。
ベルとホイッスルを使わずにSOTA(State-of-the-art)MIロバスト性を実現する。
論文 参考訳(メタデータ) (2024-05-09T07:24:28Z) - Pseudo Label-Guided Model Inversion Attack via Conditional Generative
Adversarial Network [102.21368201494909]
モデル反転(MI)攻撃はプライバシーに対する懸念を高めている。
近年のMI攻撃では,探索空間を狭める前にGAN(Generative Adversarial Network)を画像として活用している。
我々は条件付きGAN(cGAN)による擬似ラベル誘導MI(PLG-MI)攻撃を提案する。
論文 参考訳(メタデータ) (2023-02-20T07:29:34Z) - Accuracy-Privacy Trade-off in Deep Ensemble [12.87620316721433]
私たちは、アンサンブル学習の2つの目標、すなわち精度とプライバシーの向上が互いに直接衝突することを示しています。
アンサンブルはプライバシーや正確性を向上できるが、両方を同時に改善するものではない。
正規化や差分プライバシーなどのMI攻撃に対する防御効果の評価は,MI攻撃の有効性を軽減できるが,同時にアンサンブルの精度を低下させることができることを示す。
論文 参考訳(メタデータ) (2021-05-12T00:58:04Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z) - How Does Data Augmentation Affect Privacy in Machine Learning? [94.52721115660626]
拡張データの情報を活用するために,新たなMI攻撃を提案する。
モデルが拡張データで訓練された場合、最適な会員推定値を確立する。
論文 参考訳(メタデータ) (2020-07-21T02:21:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。