論文の概要: Plug & Play Attacks: Towards Robust and Flexible Model Inversion Attacks
- arxiv url: http://arxiv.org/abs/2201.12179v1
- Date: Fri, 28 Jan 2022 15:25:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-31 13:57:11.325408
- Title: Plug & Play Attacks: Towards Robust and Flexible Model Inversion Attacks
- Title(参考訳): Plug & Playアタック:ロバストでフレキシブルなモデルインバージョンアタックを目指す
- Authors: Lukas Struppek, Dominik Hintersdorf, Antonio De Almeida Correia,
Antonia Adler, Kristian Kersting
- Abstract要約: モデルアタック(MIA)は、モデルが学習した知識を活用して、対象のインバージョントレーニングデータからクラスワイズ特性を反映した合成画像を作成することを目的としている。
従来の研究では、特定のターゲットモデルに合わせた画像の先行画像として、GAN(Generative Adversarial Network)を用いたジェネレーティブMIAを開発した。
ターゲットモデルと画像間の依存性を緩和し、訓練された単一のGANを使用することで、幅広いターゲットを攻撃できるプラグイン&プレイアタック(Plug & Play Attacks)を提案する。
- 参考スコア(独自算出の注目度): 13.374754708543449
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Model inversion attacks (MIAs) aim to create synthetic images that reflect
the class-wise characteristics from a target classifier's training data by
exploiting the model's learned knowledge. Previous research has developed
generative MIAs using generative adversarial networks (GANs) as image priors
that are tailored to a specific target model. This makes the attacks time- and
resource-consuming, inflexible, and susceptible to distributional shifts
between datasets. To overcome these drawbacks, we present Plug & Play Attacks
that loosen the dependency between the target model and image prior and enable
the use of a single trained GAN to attack a broad range of targets with only
minor attack adjustments needed. Moreover, we show that powerful MIAs are
possible even with publicly available pre-trained GANs and under strong
distributional shifts, whereas previous approaches fail to produce meaningful
results. Our extensive evaluation confirms the improved robustness and
flexibility of Plug & Play Attacks and their ability to create high-quality
images revealing sensitive class characteristics.
- Abstract(参考訳): モデルインバージョンアタック(MIA)は、モデルの学習知識を活用して、ターゲット分類器のトレーニングデータからクラスワイズ特性を反映した合成画像を作成することを目的としている。
従来の研究では、特定のターゲットモデルに適合した画像先行として、GAN(Generative Adversarial Network)を用いた生成MIAを開発した。
これにより、攻撃は時間とリソースを消費し、柔軟性がなく、データセット間の分散シフトに影響を受けやすい。
これらの欠点を克服するために、ターゲットモデルと画像間の依存性を緩和し、訓練された単一のGANを使用することで、小さな攻撃調整だけで広範囲のターゲットを攻撃できるPlug & Play Attacksを提案する。
さらに, 従来の手法では有意な結果が得られなかったのに対して, 事前学習型GANでも強力なMIAが実現可能であることを示す。
我々は,プラグイン・アンド・プレイ・アタックの堅牢性と柔軟性の向上と,クラス特性に敏感な高品質な画像を作成する能力を確認した。
関連論文リスト
- Transferable Adversarial Attacks on SAM and Its Downstream Models [87.23908485521439]
本稿では,セグメント・アプライス・モデル(SAM)から微調整した様々な下流モデルに対する敵攻撃の可能性について検討する。
未知のデータセットを微調整したモデルに対する敵攻撃の有効性を高めるために,ユニバーサルメタ初期化(UMI)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-26T15:04:04Z) - Adversarial Robustification via Text-to-Image Diffusion Models [56.37291240867549]
アドリラルロバスト性は、ニューラルネットワークをエンコードする難しい性質として伝統的に信じられてきた。
データを使わずに敵の堅牢性を実現するために,スケーラブルでモデルに依存しないソリューションを開発した。
論文 参考訳(メタデータ) (2024-07-26T10:49:14Z) - Model Inversion Attacks Through Target-Specific Conditional Diffusion Models [54.69008212790426]
モデル反転攻撃(MIA)は、ターゲット分類器のトレーニングセットからプライベートイメージを再構築することを目的としており、それによってAIアプリケーションにおけるプライバシー上の懸念が高まる。
従来のGANベースのMIAは、GANの固有の欠陥と潜伏空間における最適化の偏りにより、劣った遺伝子的忠実度に悩まされる傾向にある。
これらの問題を緩和するために拡散モデル反転(Diff-MI)攻撃を提案する。
論文 参考訳(メタデータ) (2024-07-16T06:38:49Z) - FACTUAL: A Novel Framework for Contrastive Learning Based Robust SAR Image Classification [10.911464455072391]
FACTUALは、逆行訓練と堅牢なSAR分類のためのコントラストラーニングフレームワークである。
本モデルでは, 洗浄試料の99.7%, 摂動試料の89.6%の精度が得られた。
論文 参考訳(メタデータ) (2024-04-04T06:20:22Z) - Practical Membership Inference Attacks Against Large-Scale Multi-Modal
Models: A Pilot Study [17.421886085918608]
メンバーシップ推論攻撃(MIA)は、機械学習モデルのトレーニングにデータポイントを使用したかどうかを推測することを目的としている。
これらの攻撃は、潜在的なプライバシー上の脆弱性を特定し、個人データの不正使用を検出するために使用できる。
本稿では,大規模マルチモーダルモデルに対する実用的なMIAの開発に向けて第一歩を踏み出す。
論文 参考訳(メタデータ) (2023-09-29T19:38:40Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z) - Boosting Black-Box Attack with Partially Transferred Conditional
Adversarial Distribution [83.02632136860976]
深層ニューラルネットワーク(DNN)に対するブラックボックス攻撃の研究
我々は, 代理バイアスに対して頑健な, 対向移動可能性の新たなメカニズムを開発する。
ベンチマークデータセットの実験と実世界のAPIに対する攻撃は、提案手法の優れた攻撃性能を示す。
論文 参考訳(メタデータ) (2020-06-15T16:45:27Z) - GAP++: Learning to generate target-conditioned adversarial examples [28.894143619182426]
逆の例は摂動入力であり、機械学習モデルに深刻な脅威をもたらす可能性がある。
本稿では、入力画像とターゲットラベルの両方に依存する目標条件の摂動を推論する、より汎用的なフレームワークを提案する。
本手法は,単一目標攻撃モデルで優れた性能を達成し,摂動ノルムを小さくして高い騙し率を得る。
論文 参考訳(メタデータ) (2020-06-09T07:49:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。