論文の概要: Knowledge-Enriched Distributional Model Inversion Attacks
- arxiv url: http://arxiv.org/abs/2010.04092v4
- Date: Thu, 19 Aug 2021 15:19:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 12:44:08.977143
- Title: Knowledge-Enriched Distributional Model Inversion Attacks
- Title(参考訳): 知識に富んだ分布モデル反転攻撃
- Authors: Si Chen, Mostafa Kahla, Ruoxi Jia and Guo-Jun Qi
- Abstract要約: モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
- 参考スコア(独自算出の注目度): 49.43828150561947
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Model inversion (MI) attacks are aimed at reconstructing training data from
model parameters. Such attacks have triggered increasing concerns about
privacy, especially given a growing number of online model repositories.
However, existing MI attacks against deep neural networks (DNNs) have large
room for performance improvement. We present a novel inversion-specific GAN
that can better distill knowledge useful for performing attacks on private
models from public data. In particular, we train the discriminator to
differentiate not only the real and fake samples but the soft-labels provided
by the target model. Moreover, unlike previous work that directly searches for
a single data point to represent a target class, we propose to model a private
data distribution for each target class. Our experiments show that the
combination of these techniques can significantly boost the success rate of the
state-of-the-art MI attacks by 150%, and generalize better to a variety of
datasets and models. Our code is available at
https://github.com/SCccc21/Knowledge-Enriched-DMI.
- Abstract(参考訳): model inversion (mi)攻撃は、モデルパラメータからトレーニングデータを再構築することを目的としている。
このような攻撃は、特にオンラインモデルリポジトリの増加を考えると、プライバシに関する懸念が高まっている。
しかし、ディープニューラルネットワーク(DNN)に対する既存のMI攻撃には、パフォーマンス改善の余地が広い。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
特に,実検体と偽検体とを区別するために判別器を訓練し,対象モデルによって提供されるソフトラベルを識別する。
さらに,対象クラスを表すために単一のデータポイントを直接検索する従来の作業とは異なり,対象クラス毎にプライベートなデータ分布をモデル化することを提案する。
実験の結果,これらの手法を組み合わせることで,最先端のmi攻撃の成功率を150%向上させ,様々なデータセットやモデルに一般化できることがわかった。
私たちのコードはhttps://github.com/SCccc21/Knowledge-Enriched-DMIで公開されています。
関連論文リスト
- Practical Membership Inference Attacks Against Large-Scale Multi-Modal
Models: A Pilot Study [17.421886085918608]
メンバーシップ推論攻撃(MIA)は、機械学習モデルのトレーニングにデータポイントを使用したかどうかを推測することを目的としている。
これらの攻撃は、潜在的なプライバシー上の脆弱性を特定し、個人データの不正使用を検出するために使用できる。
本稿では,大規模マルチモーダルモデルに対する実用的なMIAの開発に向けて第一歩を踏み出す。
論文 参考訳(メタデータ) (2023-09-29T19:38:40Z) - Model Inversion Attack via Dynamic Memory Learning [41.742953947551364]
Model Inversion (MI)攻撃は、ターゲットモデルからプライベートトレーニングデータを復元することを目的としている。
生成的敵モデルにおける近年の進歩は、特にMI攻撃に有効である。
本稿では、歴史的知識を活用するために、新しい動的メモリモデル反転攻撃(DMMIA)を提案する。
論文 参考訳(メタデータ) (2023-08-24T02:32:59Z) - Membership Inference Attacks against Synthetic Data through Overfitting
Detection [84.02632160692995]
我々は、攻撃者が基礎となるデータ分布についてある程度の知識を持っていると仮定する現実的なMIA設定について論じる。
生成モデルの局所的なオーバーフィッティングをターゲットとして,メンバシップを推論することを目的とした密度ベースMIAモデルであるDOMIASを提案する。
論文 参考訳(メタデータ) (2023-02-24T11:27:39Z) - Pseudo Label-Guided Model Inversion Attack via Conditional Generative
Adversarial Network [102.21368201494909]
モデル反転(MI)攻撃はプライバシーに対する懸念を高めている。
近年のMI攻撃では,探索空間を狭める前にGAN(Generative Adversarial Network)を画像として活用している。
我々は条件付きGAN(cGAN)による擬似ラベル誘導MI(PLG-MI)攻撃を提案する。
論文 参考訳(メタデータ) (2023-02-20T07:29:34Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - How to Combine Membership-Inference Attacks on Multiple Updated Models [14.281721121930035]
本稿では,1つ以上のモデル更新を利用する新たな攻撃を提案し,メンバーシップ推論(MI)を改善する。
このアプローチの重要な部分は、オリジナルのモデルと更新されたモデルとを別々に実装したスタンドアロンMI攻撃からの豊富な情報を活用することです。
4つの公開データセットの結果から、我々の攻撃はアップデート情報を使用することで、敵がスタンドアロンモデルに対する攻撃に対して大きな優位性を持つことを示す。
論文 参考訳(メタデータ) (2022-05-12T21:14:11Z) - Label-Only Model Inversion Attacks via Boundary Repulsion [12.374249336222906]
対象モデルの予測ラベルのみを用いて,プライベートトレーニングデータを逆転するアルゴリズムを提案する。
顔認識の例を用いて、BREP-MIで再構成した画像は、プライベートトレーニングデータのセマンティクスを再現することに成功した。
論文 参考訳(メタデータ) (2022-03-03T18:57:57Z) - Delving into Data: Effectively Substitute Training for Black-box Attack [84.85798059317963]
本稿では,知識盗むプロセスで使用されるデータの分散設計に焦点をあてた,新しい視点代替トレーニングを提案する。
これら2つのモジュールの組み合わせにより、代替モデルとターゲットモデルの一貫性がさらに向上し、敵攻撃の有効性が大幅に向上する。
論文 参考訳(メタデータ) (2021-04-26T07:26:29Z) - How Does Data Augmentation Affect Privacy in Machine Learning? [94.52721115660626]
拡張データの情報を活用するために,新たなMI攻撃を提案する。
モデルが拡張データで訓練された場合、最適な会員推定値を確立する。
論文 参考訳(メタデータ) (2020-07-21T02:21:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。