論文の概要: Score-based Membership Inference on Diffusion Models
- arxiv url: http://arxiv.org/abs/2509.25003v1
- Date: Mon, 29 Sep 2025 16:28:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:20.129616
- Title: Score-based Membership Inference on Diffusion Models
- Title(参考訳): 拡散モデルに基づくスコアベースメンバーシップ推論
- Authors: Mingxing Rao, Bowen Qu, Daniel Moyer,
- Abstract要約: 拡散モデルに対するメンバーシップ推論攻撃(MIA)は、プライバシーの懸念が強まっている。
本稿では,拡散モデルが近似することを学習する予測ノイズベクトルに着目し,スコアベースMIAの理論的,実証的研究を行う。
提案手法は, トレーニングセットに近づき, メンバシップが明らかになるような, 近隣のトレーニングサンプルのカーネル重み付き局所平均に対して, 期待されたデノイザ出力が向けられることを示す。
- 参考スコア(独自算出の注目度): 3.742113529511043
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Membership inference attacks (MIAs) against diffusion models have emerged as a pressing privacy concern, as these models may inadvertently reveal whether a given sample was part of their training set. We present a theoretical and empirical study of score-based MIAs, focusing on the predicted noise vectors that diffusion models learn to approximate. We show that the expected denoiser output points toward a kernel-weighted local mean of nearby training samples, such that its norm encodes proximity to the training set and thereby reveals membership. Building on this observation, we propose SimA, a single-query attack that provides a principled, efficient alternative to existing multi-query methods. SimA achieves consistently strong performance across variants of DDPM, Latent Diffusion Model (LDM). Notably, we find that Latent Diffusion Models are surprisingly less vulnerable than pixel-space models, due to the strong information bottleneck imposed by their latent auto-encoder. We further investigate this by differing the regularization hyperparameters ($\beta$ in $\beta$-VAE) in latent channel and suggest a strategy to make LDM training more robust to MIA. Our results solidify the theory of score-based MIAs, while highlighting that Latent Diffusion class of methods requires better understanding of inversion for VAE, and not simply inversion of the Diffusion process
- Abstract(参考訳): 拡散モデルに対するメンバーシップ推論攻撃(MIA)は、これらのモデルがトレーニングセットの一部であったかどうかを不注意に明らかにするため、プライバシー上の懸念として浮上している。
本稿では,拡散モデルが近似することを学習する予測ノイズベクトルに着目し,スコアベースMIAの理論的,実証的研究を行う。
提案手法は, トレーニングセットに近づき, メンバシップが明らかになるような, 近隣のトレーニングサンプルのカーネル重み付き局所平均に対して, 期待されたデノイザ出力が向けられることを示す。
そこで本研究では,既存のマルチクエリ手法に対して,原則的かつ効率的な代替手段を提供する単一クエリアタックであるSimAを提案する。
SimA は DDPM, Latent Diffusion Model (LDM) の亜種間で一貫して強い性能を達成している。
特に、潜在拡散モデルは、潜在オートエンコーダの強い情報ボトルネックのため、画素空間モデルよりも驚くほど脆弱でないことが判明した。
さらに,遅延チャネルにおける正規化ハイパーパラメータ($\beta$ in $\beta$-VAE)の相違によってこれを検証し,MIAに対してLCMトレーニングをより堅牢にするための戦略を提案する。
我々の結果はスコアベースMIAの理論を固化させながら、遅延拡散法は、単に拡散過程の逆ではなく、VAEの逆転をよりよく理解する必要があることを強調した。
関連論文リスト
- Real-World Benchmarks Make Membership Inference Attacks Fail on Diffusion Models [12.386823277082746]
拡散モデルに対するメンバーシップ推論攻撃(MIA)は、不正なデータ使用の潜在的証拠として浮上している。
本研究は,拡散モデルにおける最先端MIAの評価について検討し,重大な欠陥と過度に楽観的な性能評価を明らかにした。
CopyMarkはより現実的なMIAベンチマークで、事前訓練された拡散モデル、偏りのないデータセット、公正な評価パイプラインのサポートを通じて自分自身を区別する。
論文 参考訳(メタデータ) (2024-10-04T17:46:06Z) - Model Inversion Attacks Through Target-Specific Conditional Diffusion Models [54.69008212790426]
モデル反転攻撃(MIA)は、ターゲット分類器のトレーニングセットからプライベートイメージを再構築することを目的としており、それによってAIアプリケーションにおけるプライバシー上の懸念が高まる。
従来のGANベースのMIAは、GANの固有の欠陥と潜伏空間における最適化の偏りにより、劣った遺伝子的忠実度に悩まされる傾向にある。
これらの問題を緩和するために拡散モデル反転(Diff-MI)攻撃を提案する。
論文 参考訳(メタデータ) (2024-07-16T06:38:49Z) - Improved off-policy training of diffusion samplers [93.66433483772055]
本研究では,非正規化密度やエネルギー関数を持つ分布からサンプルを抽出する拡散モデルの訓練問題について検討する。
シミュレーションに基づく変分法や非政治手法など,拡散構造推論手法のベンチマークを行った。
我々の結果は、過去の研究の主張に疑問を投げかけながら、既存のアルゴリズムの相対的な利点を浮き彫りにした。
論文 参考訳(メタデータ) (2024-02-07T18:51:49Z) - CamoDiffusion: Camouflaged Object Detection via Conditional Diffusion
Models [72.93652777646233]
カモフラーゲ型物体検出(COD)は、カモフラーゲ型物体とその周囲の類似性が高いため、コンピュータビジョンにおいて難しい課題である。
本研究では,CODを拡散モデルを利用した条件付きマスク生成タスクとして扱う新しいパラダイムを提案する。
カモ拡散(CamoDiffusion)と呼ばれる本手法では,拡散モデルのデノナイズプロセスを用いてマスクの雑音を反復的に低減する。
論文 参考訳(メタデータ) (2023-05-29T07:49:44Z) - Membership Inference Attacks against Diffusion Models [0.0]
拡散モデルは近年、革新的な生成モデルとして注目されている。
本研究では,拡散モデルがメンバシップ推論攻撃に耐性があるかどうかを検討する。
論文 参考訳(メタデータ) (2023-02-07T05:20:20Z) - Are Diffusion Models Vulnerable to Membership Inference Attacks? [26.35177414594631]
拡散に基づく生成モデルは、画像合成に大きな可能性を示しているが、それらが引き起こすセキュリティとプライバシのリスクに関する研究が不足している。
共通プライバシー問題であるMIAに対する拡散モデルの脆弱性について検討する。
ステップワイズ・エラー比較メンバーシップ推論(SecMI)は,各時刻における前処理後推定のマッチングを評価することで,メンバーシップを推測するクエリベースのMIAである。
論文 参考訳(メタデータ) (2023-02-02T18:43:16Z) - How Much is Enough? A Study on Diffusion Times in Score-based Generative
Models [76.76860707897413]
現在のベストプラクティスは、フォワードダイナミクスが既知の単純なノイズ分布に十分に近づくことを確実にするために大きなTを提唱している。
本稿では, 理想とシミュレーションされたフォワードダイナミクスのギャップを埋めるために補助モデルを用いて, 標準的な逆拡散過程を導出する方法について述べる。
論文 参考訳(メタデータ) (2022-06-10T15:09:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。