論文の概要: Identity-Focused Inference and Extraction Attacks on Diffusion Models
- arxiv url: http://arxiv.org/abs/2410.10177v1
- Date: Mon, 14 Oct 2024 05:50:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-30 02:34:41.230926
- Title: Identity-Focused Inference and Extraction Attacks on Diffusion Models
- Title(参考訳): 拡散モデルにおけるアイデンティティに焦点をあてた推論と抽出攻撃
- Authors: Jayneel Vora, Aditya Krishnan, Nader Bouacida, Prabhu RV Shankar, Prasant Mohapatra,
- Abstract要約: トレーニングデータに個人のアイデンティティを含むことをモデル所有者に説明できる新しいアイデンティティ推論フレームワークを導入する。
我々のアプローチは、アイデンティティレベルの推論に焦点をあてることで、従来のメンバーシップ推論攻撃を超えています。
- 参考スコア(独自算出の注目度): 8.99127212785609
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The increasing reliance on diffusion models for generating synthetic images has amplified concerns about the unauthorized use of personal data, particularly facial images, in model training. In this paper, we introduce a novel identity inference framework to hold model owners accountable for including individuals' identities in their training data. Our approach moves beyond traditional membership inference attacks by focusing on identity-level inference, providing a new perspective on data privacy violations. Through comprehensive evaluations on two facial image datasets, Labeled Faces in the Wild (LFW) and CelebA, our experiments demonstrate that the proposed membership inference attack surpasses baseline methods, achieving an attack success rate of up to 89% and an AUC-ROC of 0.91, while the identity inference attack attains 92% on LDM models trained on LFW, and the data extraction attack achieves 91.6% accuracy on DDPMs, validating the effectiveness of our approach across diffusion models.
- Abstract(参考訳): 合成画像の生成における拡散モデルへの依存度の増加は、モデルトレーニングにおける個人データ、特に顔画像の不正使用に対する懸念を増幅している。
本稿では,モデル所有者がトレーニングデータに個人のアイデンティティを含むことを説明できる新しいアイデンティティ推論フレームワークを提案する。
当社のアプローチは、アイデンティティレベルの推論に注目し、データプライバシ違反に関する新たな視点を提供することによって、従来のメンバシップ推論攻撃を越えています。
2つの顔画像データセット(LFW)とCelebA(CelebA)の総合的な評価により、提案したメンバーシップ推論攻撃がベースライン手法を超越し、攻撃成功率最大89%、AUC-ROC0.91を達成し、アイデンティティ推論攻撃はLFWで訓練されたLCMモデルで92%、データ抽出攻撃はDDPMで91.6%の精度を達成し、拡散モデルにおけるアプローチの有効性を検証した。
関連論文リスト
- Privacy Protection in Personalized Diffusion Models via Targeted Cross-Attention Adversarial Attack [5.357486699062561]
本稿では,CoPSAM(Selective Attention Manipulation)による新規かつ効率的な対向攻撃法を提案する。
この目的のために、クリーンなサンプルに付加される知覚不可能なノイズを慎重に構築し、その逆のノイズを得る。
CelebA-HQ顔画像データセットのサブセットに対する実験的検証は、我々のアプローチが既存の手法より優れていることを示す。
論文 参考訳(メタデータ) (2024-11-25T14:39:18Z) - Disrupting Diffusion: Token-Level Attention Erasure Attack against Diffusion-based Customization [19.635385099376066]
悪意のあるユーザは、DreamBoothのような拡散ベースのカスタマイズメソッドを誤用して、偽画像を作った。
本稿では,拡散モデル出力を阻害する新しい逆攻撃法であるDisDiffを提案する。
論文 参考訳(メタデータ) (2024-05-31T02:45:31Z) - Adv-Diffusion: Imperceptible Adversarial Face Identity Attack via Latent
Diffusion Model [61.53213964333474]
本稿では,生の画素空間ではなく,潜在空間における非知覚的対角的アイデンティティ摂動を生成できる統一的なフレームワークAdv-Diffusionを提案する。
具体的には,周囲のセマンティックな摂動を生成するために,個人性に敏感な条件付き拡散生成モデルを提案する。
設計された適応強度に基づく対向摂動アルゴリズムは、攻撃の伝達性とステルス性の両方を確保することができる。
論文 参考訳(メタデータ) (2023-12-18T15:25:23Z) - Data Forensics in Diffusion Models: A Systematic Analysis of Membership
Privacy [62.16582309504159]
本研究では,拡散モデルに対するメンバシップ推論攻撃の系統的解析を開発し,各攻撃シナリオに適した新しい攻撃手法を提案する。
提案手法は容易に入手可能な量を利用して,現実的なシナリオにおいてほぼ完全な攻撃性能 (>0.9 AUCROC) を達成することができる。
論文 参考訳(メタデータ) (2023-02-15T17:37:49Z) - Membership Inference of Diffusion Models [9.355840335132124]
本稿では,拡散モデルに対するメンバシップ推論攻撃に関する最初の研究を体系的に提示する。
損失ベースと可能性ベースという2つの攻撃手法が提案されている。
本手法は,プライバシに敏感なデータに対して,さまざまなデータセットに対して,最先端の拡散モデルを用いて評価する。
論文 参考訳(メタデータ) (2023-01-24T12:34:27Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Federated Test-Time Adaptive Face Presentation Attack Detection with
Dual-Phase Privacy Preservation [100.69458267888962]
顔提示攻撃検出(fPAD)は、現代の顔認識パイプラインにおいて重要な役割を果たす。
法的およびプライバシー上の問題により、トレーニングデータ(実際の顔画像と偽画像)は、異なるデータソース間で直接共有することはできない。
本稿では,二相プライバシー保護フレームワークを用いたフェデレーションテスト時間適応顔提示検出を提案する。
論文 参考訳(メタデータ) (2021-10-25T02:51:05Z) - Delving into Data: Effectively Substitute Training for Black-box Attack [84.85798059317963]
本稿では,知識盗むプロセスで使用されるデータの分散設計に焦点をあてた,新しい視点代替トレーニングを提案する。
これら2つのモジュールの組み合わせにより、代替モデルとターゲットモデルの一貫性がさらに向上し、敵攻撃の有効性が大幅に向上する。
論文 参考訳(メタデータ) (2021-04-26T07:26:29Z) - An Extension of Fano's Inequality for Characterizing Model
Susceptibility to Membership Inference Attacks [28.366183028100057]
深層ニューラルネットワークにおけるメンバシップ推論攻撃の成功確率は,入力とアクティベーションの相互情報を用いてバウンドできることを示す。
これにより、メンバーシップ推論攻撃に対するDNNモデルの感受性を測定するために、相互情報を使用することが可能である。
論文 参考訳(メタデータ) (2020-09-17T06:37:15Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。