論文の概要: Privacy Attacks on Image AutoRegressive Models
- arxiv url: http://arxiv.org/abs/2502.02514v1
- Date: Tue, 04 Feb 2025 17:33:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 15:02:09.775007
- Title: Privacy Attacks on Image AutoRegressive Models
- Title(参考訳): 画像自動回帰モデルにおけるプライバシ攻撃
- Authors: Antoni Kowalczuk, Jan Dubiński, Franziska Boenisch, Adam Dziedzic,
- Abstract要約: 画像自己回帰(IAR)モデルは、画像品質(FID: 1.48 vs. 1.58)と生成速度の両方で拡散モデル(DM)を上回っている。
IARとDMを比較した包括的プライバシー分析を行う。
我々は,トレーニング画像の検出において,極めて高い成功率を達成する新しいメンバーシップ推論攻撃(MIA)を開発した。
- 参考スコア(独自算出の注目度): 4.892675958180895
- License:
- Abstract: Image autoregressive (IAR) models have surpassed diffusion models (DMs) in both image quality (FID: 1.48 vs. 1.58) and generation speed. However, their privacy risks remain largely unexplored. To address this, we conduct a comprehensive privacy analysis comparing IARs to DMs. We develop a novel membership inference attack (MIA) that achieves a significantly higher success rate in detecting training images (TPR@FPR=1%: 86.38% for IARs vs. 4.91% for DMs). Using this MIA, we perform dataset inference (DI) and find that IARs require as few as six samples to detect dataset membership, compared to 200 for DMs, indicating higher information leakage. Additionally, we extract hundreds of training images from an IAR (e.g., 698 from VAR-d30). Our findings highlight a fundamental privacy-utility trade-off: while IARs excel in generation quality and speed, they are significantly more vulnerable to privacy attacks. This suggests that incorporating techniques from DMs, such as per-token probability modeling using diffusion, could help mitigate IARs' privacy risks. Our code is available at https://github.com/sprintml/privacy_attacks_against_iars.
- Abstract(参考訳): 画像自己回帰(IAR)モデルは、画像品質(FID: 1.48 vs. 1.58)と生成速度の両方で拡散モデル(DM)を上回っている。
しかし、プライバシー上のリスクはほとんど未解決のままである。
この問題に対処するために、IDAとDMを比較した包括的なプライバシー分析を行う。
我々は、トレーニング画像の検出において、極めて高い成功率(TPR@FPR=1%:86.38%、DMでは4.91%)を達成する新しいメンバーシップ推論攻撃(MIA)を開発した。
このMIAを用いて、データセット推論(DI)を行い、IDAがデータセットのメンバシップを検出するのに6つのサンプルを必要とするのに対し、DMは200であり、より高い情報漏洩を示す。
さらに、IAR(例えば、VAR-d30から698)から数百のトレーニング画像を抽出する。
IARは世代別品質とスピードに優れていますが、プライバシー攻撃に対してはるかに脆弱です。
このことから,拡散を用いた確率モデリングなど,DMの手法を取り入れることで,IARのプライバシーリスクを軽減できる可能性が示唆された。
私たちのコードはhttps://github.com/sprintml/privacy_ attacks_against_iars.comで利用可能です。
関連論文リスト
- ARMOR: Shielding Unlearnable Examples against Data Augmentation [25.289775916629505]
我々は、データ拡張の潜在的な侵害からデータプライバシを保護するためのフレームワークARMORを提案する。
ARMORは、強化された保護されたサンプルでトレーニングされたモデルのテスト精度を、ベースラインよりも60%以上削減する。
論文 参考訳(メタデータ) (2025-01-15T15:22:57Z) - Reconciling AI Performance and Data Reconstruction Resilience for
Medical Imaging [52.578054703818125]
人工知能(AI)モデルは、トレーニングデータの情報漏洩に対して脆弱であり、非常に敏感である。
差別化プライバシ(DP)は、定量的なプライバシー予算を設定することで、これらの感受性を回避することを目的としている。
非常に大きなプライバシ予算を使用することで、リコンストラクション攻撃は不可能であり、パフォーマンスの低下は無視可能であることを示す。
論文 参考訳(メタデータ) (2023-12-05T12:21:30Z) - Elijah: Eliminating Backdoors Injected in Diffusion Models via
Distribution Shift [86.92048184556936]
DMの最初のバックドア検出・除去フレームワークを提案する。
DDPM, NCSN, LDMを含む3種類のDMを用いて, フレームワークのElijahを評価した。
提案手法では, モデルの有用性を著しく損なうことなく, 検出精度が100%に近づき, バックドア効果をゼロに抑えることができる。
論文 参考訳(メタデータ) (2023-11-27T23:58:56Z) - Differentially Private Latent Diffusion Models [4.10609794373612]
拡散モデル (DM) は高品質な画像を生成するために最も広く使われている生成モデルの一つである。
本稿では、textitLatent Diffusion Models (LDMs) を採用することにより、差分プライバシ(DP)を用いたDMの現状を改善することを目的とする。
提案手法により,DP保証付きテキストプロンプトに条件付き現実的な高次元画像を生成することができる。
論文 参考訳(メタデータ) (2023-05-25T06:18:31Z) - DiffProtect: Generate Adversarial Examples with Diffusion Models for
Facial Privacy Protection [64.77548539959501]
DiffProtectは最先端の方法よりも自然に見える暗号化画像を生成する。
例えば、CelebA-HQとFFHQのデータセットで24.5%と25.1%の絶対的な改善が達成されている。
論文 参考訳(メタデータ) (2023-05-23T02:45:49Z) - Breaching FedMD: Image Recovery via Paired-Logits Inversion Attack [11.191808280173612]
悪意のあるサーバは、FedMDとその変種に対してPLI(Paired-Logits Inversion)攻撃を注入することができる。
複数の顔認識データセットの実験では、FedMDのようなスキームの下では、公開データセットのペア化されたサーバクライアントロジットを使用することで、悪意のあるサーバは、テストされたすべてのベンチマーク上で、高い成功率でプライベートイメージを再構築することができる。
論文 参考訳(メタデータ) (2023-04-22T15:56:11Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z) - How Does Data Augmentation Affect Privacy in Machine Learning? [94.52721115660626]
拡張データの情報を活用するために,新たなMI攻撃を提案する。
モデルが拡張データで訓練された場合、最適な会員推定値を確立する。
論文 参考訳(メタデータ) (2020-07-21T02:21:10Z) - InfoScrub: Towards Attribute Privacy by Targeted Obfuscation [77.49428268918703]
視覚データに流出した個人情報を個人が制限できる技術について検討する。
我々はこの問題を新しい画像難読化フレームワークで解決する。
提案手法では,元の入力画像に忠実な難読化画像を生成するとともに,非難読化画像に対して6.2$times$(または0.85bits)の不確実性を増大させる。
論文 参考訳(メタデータ) (2020-05-20T19:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。