論文の概要: Unveiling Impact of Frequency Components on Membership Inference Attacks for Diffusion Models
- arxiv url: http://arxiv.org/abs/2505.20955v1
- Date: Tue, 27 May 2025 09:50:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.554444
- Title: Unveiling Impact of Frequency Components on Membership Inference Attacks for Diffusion Models
- Title(参考訳): 拡散モデルにおける周波数成分がメンバーシップ推論攻撃に及ぼす影響
- Authors: Puwei Lian, Yujun Cai, Songze Li,
- Abstract要約: メンバーシップ推論アタック(MIA)は、モデルのトレーニングフェーズで特定のデータが使用されたかどうかを確認するように設計されている。
我々はそれらを、会員識別のための会員スコアを計算する統一的な汎用パラダイムに定式化する。
このパラダイムの下では、拡散モデルが高周波情報を処理する方法において、既存の攻撃が固有の欠陥を見落としていることを実証的に見出す。
本稿では, プラグアンドプレイ方式の高周波フィルタモジュールを提案する。
- 参考スコア(独自算出の注目度): 14.499145998991082
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion models have achieved tremendous success in image generation, but they also raise significant concerns regarding privacy and copyright issues. Membership Inference Attacks (MIAs) are designed to ascertain whether specific data were utilized during a model's training phase. As current MIAs for diffusion models typically exploit the model's image prediction ability, we formalize them into a unified general paradigm which computes the membership score for membership identification. Under this paradigm, we empirically find that existing attacks overlook the inherent deficiency in how diffusion models process high-frequency information. Consequently, this deficiency leads to member data with more high-frequency content being misclassified as hold-out data, and hold-out data with less high-frequency content tend to be misclassified as member data. Moreover, we theoretically demonstrate that this deficiency reduces the membership advantage of attacks, thereby interfering with the effective discrimination of member data and hold-out data. Based on this insight, we propose a plug-and-play high-frequency filter module to mitigate the adverse effects of the deficiency, which can be seamlessly integrated into any attacks within this general paradigm without additional time costs. Extensive experiments corroborate that this module significantly improves the performance of baseline attacks across different datasets and models.
- Abstract(参考訳): 拡散モデルは画像生成において大きな成功を収めてきたが、プライバシや著作権の問題に関する重大な懸念も持ち上がっている。
メンバーシップ推論アタック(MIA)は、モデルのトレーニングフェーズで特定のデータが使用されたかどうかを確認するように設計されている。
拡散モデルのための現在のMIAは、典型的にはモデルのイメージ予測能力を利用するため、メンバシップ識別のためのメンバシップスコアを計算する統一的な汎用パラダイムに定式化する。
このパラダイムの下では、拡散モデルが高周波情報を処理する方法において、既存の攻撃が固有の欠陥を見落としていることを実証的に見出す。
これにより、より多くの高周波コンテンツがホールドアウトデータとして誤分類されるメンバーデータとなり、高周波コンテンツが少ないホールドアウトデータがメンバーデータとして誤分類される傾向にある。
さらに,この欠損は攻撃のメンバシップの優位性を低下させ,メンバーデータとホールドアウトデータの効果的な識別に干渉することを示す。
この知見に基づいて, 時間的コストを伴わずに, 汎用パラダイム内の攻撃にシームレスに統合できる, 欠陥の悪影響を軽減するための, プラグイン・アンド・プレイ型高周波フィルタモジュールを提案する。
大規模な実験は、このモジュールがさまざまなデータセットやモデルにわたるベースラインアタックのパフォーマンスを著しく改善していることを裏付けている。
関連論文リスト
- Transferable Adversarial Attacks on SAM and Its Downstream Models [87.23908485521439]
本稿では,セグメント・アプライス・モデル(SAM)から微調整した様々な下流モデルに対する敵攻撃の可能性について検討する。
未知のデータセットを微調整したモデルに対する敵攻撃の有効性を高めるために,ユニバーサルメタ初期化(UMI)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-26T15:04:04Z) - Statistical Jump Model for Mixed-Type Data with Missing Data Imputation [0.0]
混合型データに対する統計的ジャンプモデルを提案する。
このフレームワークには、状態持続性、解釈可能性の向上、状態スイッチの頻度の削減が含まれている。
本研究では, 広範囲なシミュレーション研究と, 空気質データへの実証的応用を通して, 本手法の有効性を検証した。
論文 参考訳(メタデータ) (2024-09-02T12:36:35Z) - Center-Based Relaxed Learning Against Membership Inference Attacks [3.301728339780329]
我々は,Central-based relaxed learning (CRL)と呼ばれるアーキテクチャに依存しない新しい学習パラダイムを提案する。
CRLは任意の分類モデルに適応し、モデル一般化可能性の損失を最小限に抑え、プライバシ保護を提供する。
モデルキャパシティやデータコストを必要とせずに、このアプローチが同等のパフォーマンスを示すことを実証的に示しています。
論文 参考訳(メタデータ) (2024-04-26T19:41:08Z) - Impact of Dataset Properties on Membership Inference Vulnerability of Deep Transfer Learning [9.334117596250007]
メンバーシップ推論攻撃(MIA)は、機械学習モデルの実用的なプライバシをテストするために使用される。
固定された偽陽性率の攻撃的優位性として測定された非DPモデルの脆弱性は、単純な電力法則に従って減少することを示す。
論文 参考訳(メタデータ) (2024-02-07T14:23:01Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Generative Models with Information-Theoretic Protection Against
Membership Inference Attacks [6.840474688871695]
GAN(Generative Adversarial Networks)のような深層生成モデルは、多様な高忠実度データサンプルを合成する。
GANは、訓練されたデータから個人情報を開示し、敵の攻撃を受けやすい可能性がある。
本稿では,生成モデルがトレーニングデータに過度に適合しないようにし,一般化性を奨励する情報理論的動機付け正規化項を提案する。
論文 参考訳(メタデータ) (2022-05-31T19:29:55Z) - Delving into Data: Effectively Substitute Training for Black-box Attack [84.85798059317963]
本稿では,知識盗むプロセスで使用されるデータの分散設計に焦点をあてた,新しい視点代替トレーニングを提案する。
これら2つのモジュールの組み合わせにより、代替モデルとターゲットモデルの一貫性がさらに向上し、敵攻撃の有効性が大幅に向上する。
論文 参考訳(メタデータ) (2021-04-26T07:26:29Z) - Negative Data Augmentation [127.28042046152954]
負のデータ拡張サンプルは、データ分散のサポートに関する情報を提供することを示す。
我々は、NDAを識別器の合成データの追加源として利用する新しいGAN訓練目標を提案する。
実験により,本手法で訓練したモデルでは,異常検出能力の向上とともに条件付き・条件付き画像生成の改善を実現している。
論文 参考訳(メタデータ) (2021-02-09T20:28:35Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。