論文の概要: Is Your Conditional Diffusion Model Actually Denoising?
- arxiv url: http://arxiv.org/abs/2512.18736v1
- Date: Sun, 21 Dec 2025 13:54:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.481446
- Title: Is Your Conditional Diffusion Model Actually Denoising?
- Title(参考訳): 条件拡散モデルは実際にデノイングしているか?
- Authors: Daniel Pfrommer, Zehao Dou, Christopher Scarvelis, Max Simchowitz, Ali Jadbabaie,
- Abstract要約: 条件付き変数を持つ拡散モデルの誘導バイアスについて検討する。
理想化された復調プロセスからの逸脱は、モデル容量やトレーニングデータの量に関係なく発生することを実証する。
- 参考スコア(独自算出の注目度): 35.496429577832416
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the inductive biases of diffusion models with a conditioning-variable, which have seen widespread application as both text-conditioned generative image models and observation-conditioned continuous control policies. We observe that when these models are queried conditionally, their generations consistently deviate from the idealized "denoising" process upon which diffusion models are formulated, inducing disagreement between popular sampling algorithms (e.g. DDPM, DDIM). We introduce Schedule Deviation, a rigorous measure which captures the rate of deviation from a standard denoising process, and provide a methodology to compute it. Crucially, we demonstrate that the deviation from an idealized denoising process occurs irrespective of the model capacity or amount of training data. We posit that this phenomenon occurs due to the difficulty of bridging distinct denoising flows across different parts of the conditioning space and show theoretically how such a phenomenon can arise through an inductive bias towards smoothness.
- Abstract(参考訳): 本研究では、テキスト条件付き生成画像モデルと観測条件付き連続制御ポリシの両方として広く応用されている条件付き可変拡散モデルの誘導バイアスについて検討する。
これらのモデルが条件付きでクエリされると、それらの世代は拡散モデルを定式化する理想化された「デノイング」プロセスから常に逸脱し、一般的なサンプリングアルゴリズム(DDPM、DDIMなど)間の不一致を引き起こす。
我々は,標準偏差過程から偏差を捉える厳密な測度であるスケジュール偏差を導入し,その計算方法を提案する。
重要なことは、モデルのキャパシティやトレーニングデータの量に関係なく、理想的な復調プロセスからの逸脱が発生することを実証する。
この現象は, 条件空間の異なる部分にわたって, 異種脱臭流のブリッジ化が困難であることから生じると仮定し, 誘導バイアスから滑らか性へ向けて生じる現象を理論的に示す。
関連論文リスト
- Diffusion models under low-noise regime [3.729242965449096]
拡散モデルは, 汚損レベルが小さい場合に有効であることを示す。
トレーニングセットのサイズ,データ幾何,および客観選択形状のモデル化方法の定量化を行う。
この研究は、実用的なアプリケーションにおける生成モデルの信頼性に対する理解のギャップに対処し始めます。
論文 参考訳(メタデータ) (2025-06-09T15:07:16Z) - Soft Mixture Denoising: Beyond the Expressive Bottleneck of Diffusion
Models [76.46246743508651]
我々は,現在の拡散モデルが後方認知において表現力のあるボトルネックを持っていることを示した。
本稿では,後方復調のための表現的かつ効率的なモデルであるソフトミキシング・デノナイジング(SMD)を導入する。
論文 参考訳(メタデータ) (2023-09-25T12:03:32Z) - Gradpaint: Gradient-Guided Inpainting with Diffusion Models [71.47496445507862]
Denoising Diffusion Probabilistic Models (DDPM) は近年,条件付きおよび非条件付き画像生成において顕著な成果を上げている。
我々はGradPaintを紹介し、グローバルな一貫性のあるイメージに向けて世代を操る。
我々は、様々なデータセットで訓練された拡散モデルによく適応し、現在最先端の教師付きおよび教師なしの手法を改善している。
論文 参考訳(メタデータ) (2023-09-18T09:36:24Z) - ShiftDDPMs: Exploring Conditional Diffusion Models by Shifting Diffusion
Trajectories [144.03939123870416]
本稿では,前処理に条件を導入することで,新しい条件拡散モデルを提案する。
いくつかのシフト規則に基づいて各条件に対して排他的拡散軌跡を割り当てるために、余剰潜在空間を用いる。
我々は textbfShiftDDPMs と呼ぶメソッドを定式化し、既存のメソッドの統一的な視点を提供する。
論文 参考訳(メタデータ) (2023-02-05T12:48:21Z) - From Denoising Diffusions to Denoising Markov Models [38.33676858989955]
デノイング拡散は、顕著な経験的性能を示す最先端の生成モデルである。
本稿では、この手法を広い範囲に一般化し、スコアマッチングのオリジナル拡張につながる統一フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-07T14:34:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。