論文の概要: Noise as a Probe: Membership Inference Attacks on Diffusion Models Leveraging Initial Noise
- arxiv url: http://arxiv.org/abs/2601.21628v1
- Date: Thu, 29 Jan 2026 12:29:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.809399
- Title: Noise as a Probe: Membership Inference Attacks on Diffusion Models Leveraging Initial Noise
- Title(参考訳): プローブとしての騒音:初期雑音を利用した拡散モデルにおける会員推定攻撃
- Authors: Puwei Lian, Yujun Cai, Songze Li, Bingkun Bao,
- Abstract要約: 拡散モデルは画像生成において顕著な進歩を遂げているが、そのデプロイの増加はプライバシに関する深刻な懸念を引き起こす。
広範に使われているノイズスケジュールは、画像のセマンティック情報を完全に排除することができない。
本稿では,初期雑音に意味情報を注入し,モデル生成結果を解析してメンバーシップを推定する,シンプルで効果的なメンバーシップ推論攻撃を提案する。
- 参考スコア(独自算出の注目度): 51.179816451161635
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion models have achieved remarkable progress in image generation, but their increasing deployment raises serious concerns about privacy. In particular, fine-tuned models are highly vulnerable, as they are often fine-tuned on small and private datasets. Membership inference attacks (MIAs) are used to assess privacy risks by determining whether a specific sample was part of a model's training data. Existing MIAs against diffusion models either assume obtaining the intermediate results or require auxiliary datasets for training the shadow model. In this work, we utilized a critical yet overlooked vulnerability: the widely used noise schedules fail to fully eliminate semantic information in the images, resulting in residual semantic signals even at the maximum noise step. We empirically demonstrate that the fine-tuned diffusion model captures hidden correlations between the residual semantics in initial noise and the original images. Building on this insight, we propose a simple yet effective membership inference attack, which injects semantic information into the initial noise and infers membership by analyzing the model's generation result. Extensive experiments demonstrate that the semantic initial noise can strongly reveal membership information, highlighting the vulnerability of diffusion models to MIAs.
- Abstract(参考訳): 拡散モデルは画像生成において顕著な進歩を遂げているが、そのデプロイの増加はプライバシに関する深刻な懸念を引き起こす。
特に、微調整されたモデルは、小さなデータセットやプライベートデータセットで微調整されることが多いため、非常に脆弱である。
メンバーシップ推論攻撃(MIA)は、特定のサンプルがモデルのトレーニングデータの一部であるかどうかを判断することで、プライバシリスクを評価するために使用される。
拡散モデルに対する既存のMIAは、中間結果を得るか、シャドーモデルを訓練するために補助的なデータセットを必要とする。
広範に使われているノイズスケジュールは、画像中のセマンティック情報を完全に排除することができず、最大ノイズステップでも残留的なセマンティック信号が生じる。
実験により、微調整拡散モデルが初期雑音の残差意味と原画像との隠れた相関関係を捉えることを実証した。
この知見に基づいて、モデル生成結果を分析して、初期雑音に意味情報を注入し、メンバーシップを推定する、シンプルで効果的なメンバーシップ推論攻撃を提案する。
広範囲な実験により、セマンティック初期ノイズはメンバーシップ情報を強く明らかにし、MIAへの拡散モデルの脆弱性を浮き彫りにする。
関連論文リスト
- Noise Aggregation Analysis Driven by Small-Noise Injection: Efficient Membership Inference for Diffusion Models [19.763802072516228]
主要な関心事は、モデルトレーニングプロセスで特定のデータサンプルが使用されたかどうかを判断しようとするメンバシップ推論攻撃である。
本稿では,拡散モデルに対する効率的なメンバーシップ推論手法を提案する。
また,大規模なテキスト・画像拡散モデルに直面する場合,ASRとAUCの攻撃効果も向上する。
論文 参考訳(メタデータ) (2025-10-18T16:28:48Z) - On the MIA Vulnerability Gap Between Private GANs and Diffusion Models [51.53790101362898]
GAN(Generative Adversarial Networks)と拡散モデルが高品質な画像合成のための主要なアプローチとして登場している。
差分自己生成モデルが直面するプライバシーリスクの統一的および実証的分析について述べる。
論文 参考訳(メタデータ) (2025-09-03T14:18:22Z) - Unveiling Impact of Frequency Components on Membership Inference Attacks for Diffusion Models [51.179816451161635]
メンバーシップ推論アタック(MIA)は、モデルのトレーニングフェーズで特定のデータが使用されたかどうかを確認するように設計されている。
我々はそれらを、会員識別のための会員スコアを計算する統一的な汎用パラダイムに定式化する。
このパラダイムの下では、拡散モデルが高周波情報を処理する方法において、既存の攻撃が固有の欠陥を見落としていることを実証的に見出す。
本稿では, プラグアンドプレイ方式の高周波フィルタモジュールを提案する。
論文 参考訳(メタデータ) (2025-05-27T09:50:11Z) - DynaNoise: Dynamic Probabilistic Noise Injection for Defending Against Membership Inference Attacks [6.610581923321801]
会員推論攻撃(MIA)は、トレーニングデータセットのプライバシーに重大なリスクをもたらす。
従来の緩和技術は、トレーニングや推論中に一定量のノイズを注入することに依存している。
問合せ感度に基づいて動的にノイズ注入を変調する適応型アプローチであるDynaNoiseを提案する。
論文 参考訳(メタデータ) (2025-05-19T17:07:00Z) - MIGA: Mutual Information-Guided Attack on Denoising Models for Semantic Manipulation [39.12448251986432]
深層認知モデルを直接攻撃するためのMIGA(Mutual Information-Guided Attack)を提案する。
MIGAは、敵対的摂動を通じて意味的コンテンツを保存するモデルの能力を戦略的に破壊する。
以上の結果から,デノベーションモデルは必ずしも堅牢ではなく,現実のアプリケーションにセキュリティリスクをもたらす可能性が示唆された。
論文 参考訳(メタデータ) (2025-03-10T06:26:34Z) - ExposureDiffusion: Learning to Expose for Low-light Image Enhancement [87.08496758469835]
この研究は、拡散モデルと物理ベースの露光モデルとをシームレスに統合することで、この問題に対処する。
提案手法は,バニラ拡散モデルと比較して性能が大幅に向上し,推論時間を短縮する。
提案するフレームワークは、実際のペア付きデータセット、SOTAノイズモデル、および異なるバックボーンネットワークの両方で動作する。
論文 参考訳(メタデータ) (2023-07-15T04:48:35Z) - An Efficient Membership Inference Attack for the Diffusion Model by
Proximal Initialization [58.88327181933151]
本稿では,効率的なクエリベースのメンバシップ推論攻撃(MIA)を提案する。
実験結果から,提案手法は離散時間と連続時間の両方の拡散モデル上で,2つのクエリで競合性能を達成できることが示唆された。
我々の知る限り、本研究はテキスト音声タスクにおけるMIAへの拡散モデルのロバスト性について初めて研究するものである。
論文 参考訳(メタデータ) (2023-05-26T16:38:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。