論文の概要: Privacy Attacks on Image AutoRegressive Models
- arxiv url: http://arxiv.org/abs/2502.02514v4
- Date: Tue, 24 Jun 2025 10:19:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-25 15:36:08.111623
- Title: Privacy Attacks on Image AutoRegressive Models
- Title(参考訳): 画像自動回帰モデルにおけるプライバシ攻撃
- Authors: Antoni Kowalczuk, Jan Dubiński, Franziska Boenisch, Adam Dziedzic,
- Abstract要約: 画像自己回帰モデル(IAR)は、画像品質における最先端拡散モデル(DM)と一致する。
IARに関連するプライバシリスクは未調査のままであり、その責任を負うデプロイメントに関する懸念が高まる。
我々は,トレーニング画像の検出において,極めて高い成功率を達成する新しいメンバーシップ推論攻撃(MIA)を開発した。
- 参考スコア(独自算出の注目度): 4.892675958180895
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Image AutoRegressive generation has emerged as a new powerful paradigm with image autoregressive models (IARs) matching state-of-the-art diffusion models (DMs) in image quality (FID: 1.48 vs. 1.58) while allowing for a higher generation speed. However, the privacy risks associated with IARs remain unexplored, raising concerns regarding their responsible deployment. To address this gap, we conduct a comprehensive privacy analysis of IARs, comparing their privacy risks to the ones of DMs as reference points. Concretely, we develop a novel membership inference attack (MIA) that achieves a remarkably high success rate in detecting training images (with a True Positive Rate at False Positive Rate = 1% of 86.38% vs. 6.38% for DMs with comparable attacks). We leverage our novel MIA to provide dataset inference (DI) for IARs, and show that it requires as few as 6 samples to detect dataset membership (compared to 200 for DI in DMs), confirming a higher information leakage in IARs. Finally, we are able to extract hundreds of training data points from an IAR (e.g., 698 from VAR-d30). Our results suggest a fundamental privacy-utility trade-off: while IARs excel in image generation quality and speed, they are empirically significantly more vulnerable to privacy attacks compared to DMs that achieve similar performance. We release the code at https://github.com/sprintml/privacy_attacks_against_iars for reproducibility.
- Abstract(参考訳): Image AutoRegressive Generationは、画像品質(FID: 1.48 vs. 1.58)において、画像自己回帰モデル(IAR)と最先端拡散モデル(DM)をマッチングし、より高速な生成を可能にする新しいパラダイムとして登場した。
しかし、IARに関連するプライバシーリスクは未解明のままであり、その責任を負うデプロイメントに関する懸念が持ち上がっている。
このギャップに対処するため、我々はIDAの包括的なプライバシー分析を行い、そのプライバシーリスクとDMのリスクを基準点として比較する。
具体的には,False Positive Rate = 1% の 86.38% の DM に対して6.38% の正陽性率で,トレーニング画像の検出において極めて高い成功率を達成する新しいメンバーシップ推論攻撃 (MIA) を開発した。
我々は、新しいMIAを活用して、IARにデータセット推論(DI)を提供し、データセットのメンバシップを検出するのに最大6つのサンプル(DMのDIで200に比較)が必要であることを示し、IARのより高い情報漏洩を確認します。
最後に、IAR(例えば、VAR-d30から698)から数百のトレーニングデータポイントを抽出することができます。
IARは画像生成の品質とスピードに優れていますが、同様のパフォーマンスを達成するDMに比べて、プライバシー攻撃に対して明らかに脆弱です。
再現性のために、https://github.com/sprintml/privacy_ attacks_against_iarsでコードをリリースします。
関連論文リスト
- Elijah: Eliminating Backdoors Injected in Diffusion Models via
Distribution Shift [86.92048184556936]
DMの最初のバックドア検出・除去フレームワークを提案する。
DDPM, NCSN, LDMを含む3種類のDMを用いて, フレームワークのElijahを評価した。
提案手法では, モデルの有用性を著しく損なうことなく, 検出精度が100%に近づき, バックドア効果をゼロに抑えることができる。
論文 参考訳(メタデータ) (2023-11-27T23:58:56Z) - Protect Federated Learning Against Backdoor Attacks via Data-Free
Trigger Generation [25.072791779134]
Federated Learning (FL)は、大規模クライアントが生データを共有せずに、協力的にモデルをトレーニングすることを可能にする。
信頼できないクライアントのデータ監査が欠如しているため、FLは特にバックドアアタックに対する攻撃に対して脆弱である。
バックドア攻撃の2つの特徴に基づく,データフリーなトリガジェネレーションに基づく防衛手法を提案する。
論文 参考訳(メタデータ) (2023-08-22T10:16:12Z) - Differentially Private Latent Diffusion Models [4.10609794373612]
拡散モデル (DM) は高品質な画像を生成するために最も広く使われている生成モデルの一つである。
本稿では、textitLatent Diffusion Models (LDMs) を採用することにより、差分プライバシ(DP)を用いたDMの現状を改善することを目的とする。
提案手法により,DP保証付きテキストプロンプトに条件付き現実的な高次元画像を生成することができる。
論文 参考訳(メタデータ) (2023-05-25T06:18:31Z) - DiffProtect: Generate Adversarial Examples with Diffusion Models for
Facial Privacy Protection [64.77548539959501]
DiffProtectは最先端の方法よりも自然に見える暗号化画像を生成する。
例えば、CelebA-HQとFFHQのデータセットで24.5%と25.1%の絶対的な改善が達成されている。
論文 参考訳(メタデータ) (2023-05-23T02:45:49Z) - Breaching FedMD: Image Recovery via Paired-Logits Inversion Attack [11.191808280173612]
悪意のあるサーバは、FedMDとその変種に対してPLI(Paired-Logits Inversion)攻撃を注入することができる。
複数の顔認識データセットの実験では、FedMDのようなスキームの下では、公開データセットのペア化されたサーバクライアントロジットを使用することで、悪意のあるサーバは、テストされたすべてのベンチマーク上で、高い成功率でプライベートイメージを再構築することができる。
論文 参考訳(メタデータ) (2023-04-22T15:56:11Z) - Membership Inference Attacks against Synthetic Data through Overfitting
Detection [84.02632160692995]
我々は、攻撃者が基礎となるデータ分布についてある程度の知識を持っていると仮定する現実的なMIA設定について論じる。
生成モデルの局所的なオーバーフィッティングをターゲットとして,メンバシップを推論することを目的とした密度ベースMIAモデルであるDOMIASを提案する。
論文 参考訳(メタデータ) (2023-02-24T11:27:39Z) - Pseudo Label-Guided Model Inversion Attack via Conditional Generative
Adversarial Network [102.21368201494909]
モデル反転(MI)攻撃はプライバシーに対する懸念を高めている。
近年のMI攻撃では,探索空間を狭める前にGAN(Generative Adversarial Network)を画像として活用している。
我々は条件付きGAN(cGAN)による擬似ラベル誘導MI(PLG-MI)攻撃を提案する。
論文 参考訳(メタデータ) (2023-02-20T07:29:34Z) - Poisoning and Backdooring Contrastive Learning [26.093821359987224]
CLIPのような対照的な学習方法は、ノイズの多いデータセットと未処理のデータセットでトレーニングする。
この慣行がバックドアや毒殺を重大な脅威にしていることを示す。
論文 参考訳(メタデータ) (2021-06-17T17:20:45Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z) - How Does Data Augmentation Affect Privacy in Machine Learning? [94.52721115660626]
拡張データの情報を活用するために,新たなMI攻撃を提案する。
モデルが拡張データで訓練された場合、最適な会員推定値を確立する。
論文 参考訳(メタデータ) (2020-07-21T02:21:10Z) - InfoScrub: Towards Attribute Privacy by Targeted Obfuscation [77.49428268918703]
視覚データに流出した個人情報を個人が制限できる技術について検討する。
我々はこの問題を新しい画像難読化フレームワークで解決する。
提案手法では,元の入力画像に忠実な難読化画像を生成するとともに,非難読化画像に対して6.2$times$(または0.85bits)の不確実性を増大させる。
論文 参考訳(メタデータ) (2020-05-20T19:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。