論文の概要: Noise Aggregation Analysis Driven by Small-Noise Injection: Efficient Membership Inference for Diffusion Models
- arxiv url: http://arxiv.org/abs/2510.21783v1
- Date: Sat, 18 Oct 2025 16:28:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:14.508844
- Title: Noise Aggregation Analysis Driven by Small-Noise Injection: Efficient Membership Inference for Diffusion Models
- Title(参考訳): 微小ノイズ注入によるノイズ凝集解析:拡散モデルに対する効率的なメンバーシップ推論
- Authors: Guo Li, Yuyang Yu, Xuemiao Xu,
- Abstract要約: 主要な関心事は、モデルトレーニングプロセスで特定のデータサンプルが使用されたかどうかを判断しようとするメンバシップ推論攻撃である。
本稿では,拡散モデルに対する効率的なメンバーシップ推論手法を提案する。
また,大規模なテキスト・画像拡散モデルに直面する場合,ASRとAUCの攻撃効果も向上する。
- 参考スコア(独自算出の注目度): 19.763802072516228
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion models have demonstrated powerful performance in generating high-quality images. A typical example is text-to-image generator like Stable Diffusion. However, their widespread use also poses potential privacy risks. A key concern is membership inference attacks, which attempt to determine whether a particular data sample was used in the model training process. We propose an efficient membership inference attack method against diffusion models. This method is based on the injection of slight noise and the evaluation of the aggregation degree of the noise distribution. The intuition is that the noise prediction patterns of diffusion models for training set samples and non-training set samples exhibit distinguishable differences.Specifically, we suppose that member images exhibit higher aggregation of predicted noise around a certain time step of the diffusion process. In contrast, the predicted noises of non-member images exhibit a more discrete characteristic around the certain time step. Compared with other existing methods, our proposed method requires fewer visits to the target diffusion model. We inject slight noise into the image under test and then determine its membership by analyzing the aggregation degree of the noise distribution predicted by the model. Empirical findings indicate that our method achieves superior performance across multiple datasets. At the same time, our method can also show better attack effects in ASR and AUC when facing large-scale text-to-image diffusion models, proving the scalability of our method.
- Abstract(参考訳): 拡散モデルは高品質な画像を生成する上で強力な性能を示した。
典型的な例として、Stable Diffusionのようなテキストからイメージへのジェネレータがある。
しかし、その普及によってプライバシーのリスクも生じる。
主要な関心事は、モデルトレーニングプロセスで特定のデータサンプルが使用されたかどうかを判断しようとするメンバシップ推論攻撃である。
本稿では,拡散モデルに対する効率的なメンバーシップ推論手法を提案する。
本手法は, 微小雑音の注入と騒音分布の凝集度の評価に基づく。
トレーニングセットと非トレーニングセットの拡散モデルにおけるノイズ予測パターンは,識別可能な相違点を示し,特に,拡散過程の特定の段階の周囲に,予測されたノイズの凝集度が高いと推定される。
対照的に、予測された非メンバー画像のノイズは、特定の時間ステップの周囲でより離散的な特性を示す。
他の既存手法と比較して,提案手法では対象拡散モデルへの訪問を少なくする必要がある。
実験対象の画像に若干のノイズを注入し, モデルにより予測される雑音分布の集約度を解析して, そのメンバーシップを決定する。
実験結果から,本手法は複数のデータセットにまたがる優れた性能を実現することが示唆された。
同時に,大規模なテキスト・画像拡散モデルに直面する場合のASRとAUCの攻撃効果も向上し,本手法のスケーラビリティが証明された。
関連論文リスト
- Noise as a Probe: Membership Inference Attacks on Diffusion Models Leveraging Initial Noise [51.179816451161635]
拡散モデルは画像生成において顕著な進歩を遂げているが、そのデプロイの増加はプライバシに関する深刻な懸念を引き起こす。
広範に使われているノイズスケジュールは、画像のセマンティック情報を完全に排除することができない。
本稿では,初期雑音に意味情報を注入し,モデル生成結果を解析してメンバーシップを推定する,シンプルで効果的なメンバーシップ推論攻撃を提案する。
論文 参考訳(メタデータ) (2026-01-29T12:29:01Z) - Warm Diffusion: Recipe for Blur-Noise Mixture Diffusion Models [14.963168108932761]
熱拡散は、高周波画像の細部と低周波構造との強い相関をうまく利用できないと我々は主張する。
本稿では,Blur-Noise Mixture Diffusion Model(BNMD)を提案する。
論文 参考訳(メタデータ) (2025-11-21T02:37:09Z) - VIPaint: Image Inpainting with Pre-Trained Diffusion Models via Variational Inference [5.852077003870417]
我々のVIPaint法は,提案手法の妥当性と多様性の両方において,従来の手法よりも優れていることを示す。
我々のVIPaint法は,提案手法の妥当性と多様性の両方において,従来の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-11-28T05:35:36Z) - Immiscible Diffusion: Accelerating Diffusion Training with Noise Assignment [56.609042046176555]
準最適雑音データマッピングは拡散モデルの遅い訓練につながる。
物理学における不和性現象からインスピレーションを得て,不和性拡散を提案する。
我々のアプローチは極めて単純で、各画像の拡散可能な領域を制限するために1行のコードしか必要としない。
論文 参考訳(メタデータ) (2024-06-18T06:20:42Z) - Blue noise for diffusion models [50.99852321110366]
本稿では,画像内および画像間の相関雑音を考慮した拡散モデルを提案する。
我々のフレームワークは、勾配流を改善するために、1つのミニバッチ内に画像間の相関を導入することができる。
本手法を用いて,各種データセットの質的,定量的な評価を行う。
論文 参考訳(メタデータ) (2024-02-07T14:59:25Z) - Diffusion Models With Learned Adaptive Noise [12.530583016267768]
本稿では,拡散過程がデータから学べるかどうかを考察する。
広く信じられている仮定は、ELBOはノイズプロセスに不変であるということである。
画像間で異なる速度でノイズを印加する学習拡散過程であるMULANを提案する。
論文 参考訳(メタデータ) (2023-12-20T18:00:16Z) - ExposureDiffusion: Learning to Expose for Low-light Image Enhancement [87.08496758469835]
この研究は、拡散モデルと物理ベースの露光モデルとをシームレスに統合することで、この問題に対処する。
提案手法は,バニラ拡散モデルと比較して性能が大幅に向上し,推論時間を短縮する。
提案するフレームワークは、実際のペア付きデータセット、SOTAノイズモデル、および異なるバックボーンネットワークの両方で動作する。
論文 参考訳(メタデータ) (2023-07-15T04:48:35Z) - Simultaneous Image-to-Zero and Zero-to-Noise: Diffusion Models with Analytical Image Attenuation [53.04220377034574]
高品質(未条件)な画像生成のための前方拡散プロセスに解析的画像減衰プロセスを導入することを提案する。
本手法は,フォワード画像からノイズへのマッピングを,テクスチメジからゼロへのマッピングとテクスティケロ・ツー・ノイズマッピングの同時マッピングとして表現する。
我々は,CIFAR-10やCelebA-HQ-256などの無条件画像生成や,超解像,サリエンシ検出,エッジ検出,画像インペインティングなどの画像条件下での下流処理について実験を行った。
論文 参考訳(メタデータ) (2023-06-23T18:08:00Z) - Your Diffusion Model is Secretly a Zero-Shot Classifier [90.40799216880342]
大規模テキスト・画像拡散モデルからの密度推定をゼロショット分類に活用できることを示す。
分類に対する我々の生成的アプローチは、様々なベンチマークで強い結果が得られる。
我々の結果は、下流タスクにおける差別的モデルよりも生成的な利用に向けての一歩である。
論文 参考訳(メタデータ) (2023-03-28T17:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。