論文の概要: Noise Aggregation Analysis Driven by Small-Noise Injection: Efficient Membership Inference for Diffusion Models
- arxiv url: http://arxiv.org/abs/2510.21783v1
- Date: Sat, 18 Oct 2025 16:28:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:14.508844
- Title: Noise Aggregation Analysis Driven by Small-Noise Injection: Efficient Membership Inference for Diffusion Models
- Title(参考訳): 微小ノイズ注入によるノイズ凝集解析:拡散モデルに対する効率的なメンバーシップ推論
- Authors: Guo Li, Yuyang Yu, Xuemiao Xu,
- Abstract要約: 主要な関心事は、モデルトレーニングプロセスで特定のデータサンプルが使用されたかどうかを判断しようとするメンバシップ推論攻撃である。
本稿では,拡散モデルに対する効率的なメンバーシップ推論手法を提案する。
また,大規模なテキスト・画像拡散モデルに直面する場合,ASRとAUCの攻撃効果も向上する。
- 参考スコア(独自算出の注目度): 19.763802072516228
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion models have demonstrated powerful performance in generating high-quality images. A typical example is text-to-image generator like Stable Diffusion. However, their widespread use also poses potential privacy risks. A key concern is membership inference attacks, which attempt to determine whether a particular data sample was used in the model training process. We propose an efficient membership inference attack method against diffusion models. This method is based on the injection of slight noise and the evaluation of the aggregation degree of the noise distribution. The intuition is that the noise prediction patterns of diffusion models for training set samples and non-training set samples exhibit distinguishable differences.Specifically, we suppose that member images exhibit higher aggregation of predicted noise around a certain time step of the diffusion process. In contrast, the predicted noises of non-member images exhibit a more discrete characteristic around the certain time step. Compared with other existing methods, our proposed method requires fewer visits to the target diffusion model. We inject slight noise into the image under test and then determine its membership by analyzing the aggregation degree of the noise distribution predicted by the model. Empirical findings indicate that our method achieves superior performance across multiple datasets. At the same time, our method can also show better attack effects in ASR and AUC when facing large-scale text-to-image diffusion models, proving the scalability of our method.
- Abstract(参考訳): 拡散モデルは高品質な画像を生成する上で強力な性能を示した。
典型的な例として、Stable Diffusionのようなテキストからイメージへのジェネレータがある。
しかし、その普及によってプライバシーのリスクも生じる。
主要な関心事は、モデルトレーニングプロセスで特定のデータサンプルが使用されたかどうかを判断しようとするメンバシップ推論攻撃である。
本稿では,拡散モデルに対する効率的なメンバーシップ推論手法を提案する。
本手法は, 微小雑音の注入と騒音分布の凝集度の評価に基づく。
トレーニングセットと非トレーニングセットの拡散モデルにおけるノイズ予測パターンは,識別可能な相違点を示し,特に,拡散過程の特定の段階の周囲に,予測されたノイズの凝集度が高いと推定される。
対照的に、予測された非メンバー画像のノイズは、特定の時間ステップの周囲でより離散的な特性を示す。
他の既存手法と比較して,提案手法では対象拡散モデルへの訪問を少なくする必要がある。
実験対象の画像に若干のノイズを注入し, モデルにより予測される雑音分布の集約度を解析して, そのメンバーシップを決定する。
実験結果から,本手法は複数のデータセットにまたがる優れた性能を実現することが示唆された。
同時に,大規模なテキスト・画像拡散モデルに直面する場合のASRとAUCの攻撃効果も向上し,本手法のスケーラビリティが証明された。
関連論文リスト
- VIPaint: Image Inpainting with Pre-Trained Diffusion Models via Variational Inference [5.852077003870417]
我々のVIPaint法は,提案手法の妥当性と多様性の両方において,従来の手法よりも優れていることを示す。
我々のVIPaint法は,提案手法の妥当性と多様性の両方において,従来の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-11-28T05:35:36Z) - Immiscible Diffusion: Accelerating Diffusion Training with Noise Assignment [56.609042046176555]
準最適雑音データマッピングは拡散モデルの遅い訓練につながる。
物理学における不和性現象からインスピレーションを得て,不和性拡散を提案する。
我々のアプローチは極めて単純で、各画像の拡散可能な領域を制限するために1行のコードしか必要としない。
論文 参考訳(メタデータ) (2024-06-18T06:20:42Z) - Diffusion Models With Learned Adaptive Noise [12.530583016267768]
本稿では,拡散過程がデータから学べるかどうかを考察する。
広く信じられている仮定は、ELBOはノイズプロセスに不変であるということである。
画像間で異なる速度でノイズを印加する学習拡散過程であるMULANを提案する。
論文 参考訳(メタデータ) (2023-12-20T18:00:16Z) - Simultaneous Image-to-Zero and Zero-to-Noise: Diffusion Models with Analytical Image Attenuation [53.04220377034574]
高品質(未条件)な画像生成のための前方拡散プロセスに解析的画像減衰プロセスを導入することを提案する。
本手法は,フォワード画像からノイズへのマッピングを,テクスチメジからゼロへのマッピングとテクスティケロ・ツー・ノイズマッピングの同時マッピングとして表現する。
我々は,CIFAR-10やCelebA-HQ-256などの無条件画像生成や,超解像,サリエンシ検出,エッジ検出,画像インペインティングなどの画像条件下での下流処理について実験を行った。
論文 参考訳(メタデータ) (2023-06-23T18:08:00Z) - Your Diffusion Model is Secretly a Zero-Shot Classifier [90.40799216880342]
大規模テキスト・画像拡散モデルからの密度推定をゼロショット分類に活用できることを示す。
分類に対する我々の生成的アプローチは、様々なベンチマークで強い結果が得られる。
我々の結果は、下流タスクにおける差別的モデルよりも生成的な利用に向けての一歩である。
論文 参考訳(メタデータ) (2023-03-28T17:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。