論文の概要: Sensitivity Analysis for Diffusion Models
- arxiv url: http://arxiv.org/abs/2509.23092v1
- Date: Sat, 27 Sep 2025 03:59:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.030787
- Title: Sensitivity Analysis for Diffusion Models
- Title(参考訳): 拡散モデルの感度解析
- Authors: Christopher Scarvelis, Justin Solomon,
- Abstract要約: 拡散モデルのトレーニングは、データ分散$rho$から最適なスコア関数$s_t$に近似する。
私たちは、スコア、そして最終的にモデルのサンプルが、コストのかかる再トレーニングにコミットする前に、小さな摂動の下でトレーニングセットにどのように変化するかを予測します。
本手法は, 数値および近似誤差に対して頑健であり, 得られた感度は, 再トレーニングおよび微調整後の画像拡散モデルサンプルの変化と相関する。
- 参考スコア(独自算出の注目度): 12.045369519073525
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training a diffusion model approximates a map from a data distribution $\rho$ to the optimal score function $s_t$ for that distribution. Can we differentiate this map? If we could, then we could predict how the score, and ultimately the model's samples, would change under small perturbations to the training set before committing to costly retraining. We give a closed-form procedure for computing this map's directional derivatives, relying only on black-box access to a pre-trained score model and its derivatives with respect to its inputs. We extend this result to estimate the sensitivity of a diffusion model's samples to additive perturbations of its target measure, with runtime comparable to sampling from a diffusion model and computing log-likelihoods along the sample path. Our method is robust to numerical and approximation error, and the resulting sensitivities correlate with changes in an image diffusion model's samples after retraining and fine-tuning.
- Abstract(参考訳): 拡散モデルのトレーニングは、データ分布$\rho$から最適なスコア関数$s_t$に近似する。
この地図を区別できますか。
もし可能ならば、スコア、そして最終的にモデルのサンプルが、コストのかかる再トレーニングにコミットする前に、トレーニングセットに小さな摂動の下でどのように変化するかを予測することができます。
我々は、このマップの方向微分を計算するためのクローズドフォームの手順を、事前学習されたスコアモデルとその入力に対する導関数へのブラックボックスアクセスにのみ依存する。
この結果は,拡散モデルのサンプルの感度を,拡散モデルからのサンプリングやサンプル経路に沿ったログライクな計算に匹敵する,目標値の加法摂動に推定するために拡張する。
本手法は, 数値および近似誤差に対して頑健であり, 得られた感度は, 再トレーニングおよび微調整後の画像拡散モデルサンプルの変化と相関する。
関連論文リスト
- Resolving Memorization in Empirical Diffusion Model for Manifold Data in High-Dimensional Spaces [5.716752583983991]
データ分布がn個の点からなる場合、経験的拡散モデルは既存のデータ点を再現する傾向がある。
本研究は,経験的拡散シミュレーションの最後に慣性更新を適用することで,記憶の問題を解くことができることを示す。
このモデルから得られたサンプルの分布は、次元$d$の$C2$多様体上の真のデータ分布を、位数$O(n-frac2d+4)$のWasserstein-1距離内で近似することを示した。
論文 参考訳(メタデータ) (2025-05-05T09:40:41Z) - A Mixture-Based Framework for Guiding Diffusion Models [19.83064246586143]
デノナイジング拡散モデルはベイズ逆問題(英語版)の分野において大きな進歩をもたらした。
近年のアプローチでは、事前学習した拡散モデルを用いて、そのような問題を広範囲に解決している。
本研究はこれらの中間分布の新たな混合近似を提案する。
論文 参考訳(メタデータ) (2025-02-05T16:26:06Z) - A Simple Early Exiting Framework for Accelerated Sampling in Diffusion Models [14.859580045688487]
拡散モデルの現実的なボトルネックはサンプリング速度である。
スコア推定に必要な計算を適応的に割り当てる新しいフレームワークを提案する。
本研究では,画像品質を損なうことなく,拡散モデルのサンプリングスループットを大幅に向上できることを示す。
論文 参考訳(メタデータ) (2024-08-12T05:33:45Z) - Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - Generative Diffusion From An Action Principle [0.0]
スコアマッチングは、物理でよく用いられるようなアクション原理から導出できることを示す。
この洞察を用いて、異なる拡散モデルのクラス間の関係を実証する。
論文 参考訳(メタデータ) (2023-10-06T18:00:00Z) - Reflected Diffusion Models [93.26107023470979]
本稿では,データのサポートに基づいて進化する反射微分方程式を逆転する反射拡散モデルを提案する。
提案手法は,一般化されたスコアマッチング損失を用いてスコア関数を学習し,標準拡散モデルの主要成分を拡張する。
論文 参考訳(メタデータ) (2023-04-10T17:54:38Z) - Score-based Continuous-time Discrete Diffusion Models [102.65769839899315]
連続時間マルコフ連鎖を介して逆過程が認知されるマルコフジャンププロセスを導入することにより、拡散モデルを離散変数に拡張する。
条件境界分布の単純なマッチングにより、偏りのない推定器が得られることを示す。
提案手法の有効性を,合成および実世界の音楽と画像のベンチマークで示す。
論文 参考訳(メタデータ) (2022-11-30T05:33:29Z) - OCD: Learning to Overfit with Conditional Diffusion Models [95.1828574518325]
入力サンプルxに重みを条件付けした動的モデルを提案する。
基本モデルを x とそのラベル y 上で微調整することで得られる重みに一致することを学習する。
論文 参考訳(メタデータ) (2022-10-02T09:42:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。