論文の概要: Patch-MI: Enhancing Model Inversion Attacks via Patch-Based
Reconstruction
- arxiv url: http://arxiv.org/abs/2312.07040v1
- Date: Tue, 12 Dec 2023 07:52:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-13 17:14:52.305835
- Title: Patch-MI: Enhancing Model Inversion Attacks via Patch-Based
Reconstruction
- Title(参考訳): Patch-MI: パッチベース再構成によるモデル反転攻撃の強化
- Authors: Jonggyu Jang, Hyeonsu Lyu, Hyun Jong Yang
- Abstract要約: 我々は,ジグソーパズルの組立に触発されたPatch-MIという画期的なアプローチを導入する。
我々はMI攻撃の確率論的解釈を新たに構築し、GAN(Generative Adversarial Network)のようなフレームワークとパッチベースの識別器を用いた。
Patch-MIは既存のMI法よりも精度が高いことを示す数値的および図式的考察を行った。
- 参考スコア(独自算出の注目度): 8.164433158925593
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Model inversion (MI) attacks aim to reveal sensitive information in training
datasets by solely accessing model weights. Generative MI attacks, a prominent
strand in this field, utilize auxiliary datasets to recreate target data
attributes, restricting the images to remain photo-realistic, but their success
often depends on the similarity between auxiliary and target datasets. If the
distributions are dissimilar, existing MI attack attempts frequently fail,
yielding unrealistic or target-unrelated results. In response to these
challenges, we introduce a groundbreaking approach named Patch-MI, inspired by
jigsaw puzzle assembly. To this end, we build upon a new probabilistic
interpretation of MI attacks, employing a generative adversarial network
(GAN)-like framework with a patch-based discriminator. This approach allows the
synthesis of images that are similar to the target dataset distribution, even
in cases of dissimilar auxiliary dataset distribution. Moreover, we artfully
employ a random transformation block, a sophisticated maneuver that crafts
generalized images, thus enhancing the efficacy of the target classifier. Our
numerical and graphical findings demonstrate that Patch-MI surpasses existing
generative MI methods in terms of accuracy, marking significant advancements
while preserving comparable statistical dataset quality. For reproducibility of
our results, we make our source code publicly available in
https://github.com/jonggyujang0123/Patch-Attack.
- Abstract(参考訳): model inversion (mi)攻撃は、モデルの重み付けのみにアクセスして、トレーニングデータセット内の機密情報を明らかにすることを目的としている。
この分野で著名なMI攻撃は、補助データセットを使用して、ターゲットデータ属性を再現し、画像が写実性を維持するように制限するが、その成功はしばしば補助データセットとターゲットデータセットの類似性に依存する。
分布が異なる場合、既存のMI攻撃は失敗し、非現実的または標的的無関係な結果をもたらす。
これらの課題に応えて,ジグソーパズルの組立に触発されたPatch-MIという画期的なアプローチを導入する。
この目的のために私たちは,パッチベースの判別器を備えたgan(generative adversarial network)ライクなフレームワークを用いて,mi攻撃の確率的解釈を新たに構築する。
このアプローチは、異なる補助的データセット分布であっても、ターゲットデータセット分布と類似した画像の合成を可能にする。
さらに,一般化画像を作成する高度な操作であるランダム変換ブロックを巧みに採用することで,対象分類器の有効性を高める。
我々は,Patch-MIが既存の生成的MI手法を精度的に上回り,統計的データセットの品質を同等に保ちながら大きな進歩を示した。
結果の再現性のため、ソースコードをhttps://github.com/jonggyujang0123/Patch-Attack.comで公開しています。
関連論文リスト
- Breaking the Black-Box: Confidence-Guided Model Inversion Attack for
Distribution Shift [0.46040036610482665]
モデル反転攻撃(MIA)は、ターゲットクラスの特性を反映した合成画像を生成することにより、ターゲット分類器のプライベートトレーニングデータを推論しようとする。
これまでの研究はターゲットモデルへの完全なアクセスに依存してきたが、現実のシナリオでは実用的ではない。
本稿では,CG-MIと呼ばれるtextbfConfidence-textbfGuided textbfModel textbfInversion攻撃法を提案する。
論文 参考訳(メタデータ) (2024-02-28T03:47:17Z) - Adaptive Face Recognition Using Adversarial Information Network [57.29464116557734]
顔認識モデルは、トレーニングデータがテストデータと異なる場合、しばしば退化する。
本稿では,新たな敵情報ネットワーク(AIN)を提案する。
論文 参考訳(メタデータ) (2023-05-23T02:14:11Z) - Pseudo Label-Guided Model Inversion Attack via Conditional Generative
Adversarial Network [102.21368201494909]
モデル反転(MI)攻撃はプライバシーに対する懸念を高めている。
近年のMI攻撃では,探索空間を狭める前にGAN(Generative Adversarial Network)を画像として活用している。
我々は条件付きGAN(cGAN)による擬似ラベル誘導MI(PLG-MI)攻撃を提案する。
論文 参考訳(メタデータ) (2023-02-20T07:29:34Z) - MAPS: A Noise-Robust Progressive Learning Approach for Source-Free
Domain Adaptive Keypoint Detection [76.97324120775475]
クロスドメインキーポイント検出方法は、常に適応中にソースデータにアクセスする必要がある。
本稿では、ターゲット領域に十分に訓練されたソースモデルのみを提供する、ソースフリーなドメイン適応キーポイント検出について考察する。
論文 参考訳(メタデータ) (2023-02-09T12:06:08Z) - Meta Generative Attack on Person Reidentification [0.0]
本稿では,異なるモデルとデータセット間の転送性の向上を目標とする手法を提案する。
我々は、モデル間でより良いパフォーマンスを得るマスクを生成し、メタラーニングを使用して、挑戦的なクロスデータセットのクロスモデル設定における一般化性を高める。
論文 参考訳(メタデータ) (2023-01-16T07:08:51Z) - Plug & Play Attacks: Towards Robust and Flexible Model Inversion Attacks [13.374754708543449]
モデルアタック(MIA)は、モデルが学習した知識を活用して、対象のインバージョントレーニングデータからクラスワイズ特性を反映した合成画像を作成することを目的としている。
従来の研究では、特定のターゲットモデルに合わせた画像の先行画像として、GAN(Generative Adversarial Network)を用いたジェネレーティブMIAを開発した。
ターゲットモデルと画像間の依存性を緩和し、訓練された単一のGANを使用することで、幅広いターゲットを攻撃できるプラグイン&プレイアタック(Plug & Play Attacks)を提案する。
論文 参考訳(メタデータ) (2022-01-28T15:25:50Z) - A Hierarchical Transformation-Discriminating Generative Model for Few
Shot Anomaly Detection [93.38607559281601]
各トレーニングイメージのマルチスケールパッチ分布をキャプチャする階層的生成モデルを開発した。
この異常スコアは、スケール及び画像領域にわたる正しい変換のパッチベースの投票を集約して得られる。
論文 参考訳(メタデータ) (2021-04-29T17:49:48Z) - Semi-Supervised Domain Adaptation with Prototypical Alignment and
Consistency Learning [86.6929930921905]
本稿では,いくつかの対象サンプルがラベル付けされていれば,ドメインシフトに対処するのにどの程度役立つか検討する。
ランドマークの可能性を最大限に追求するために、ランドマークから各クラスのターゲットプロトタイプを計算するプロトタイプアライメント(PA)モジュールを組み込んでいます。
具体的には,ラベル付き画像に深刻な摂動を生じさせ,PAを非自明にし,モデル一般化性を促進する。
論文 参考訳(メタデータ) (2021-04-19T08:46:08Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。