論文の概要: Softly Constrained Denoisers for Diffusion Models
- arxiv url: http://arxiv.org/abs/2512.14980v1
- Date: Wed, 17 Dec 2025 00:35:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:26.808652
- Title: Softly Constrained Denoisers for Diffusion Models
- Title(参考訳): 拡散モデルのためのソフト拘束型デノイザー
- Authors: Victor M. Yeom Song, Severi Rissanen, Arno Solin, Samuel Kaski, Mingfei Sun,
- Abstract要約: 拡散モデルは、科学的応用において共通の要件である制約を尊重するサンプルを作成するのに苦労する。
近年のアプローチでは、そのような制約を強制するためにサンプリング中の損失やガイダンスの方法に正規化用語を導入しているが、生成モデルを真のデータ分布から遠ざけている。
これは問題であり、特に制約が誤って特定された場合、科学データに対する制約を定式化する場合に共通する問題である。
本稿では、損失やサンプリングループを変更する代わりに、誘導にインスパイアされた調整をデノイザ自体に統合し、制約に順応するサンプルに対する軟質な誘導バイアスを与える。
- 参考スコア(独自算出の注目度): 33.960391678348245
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion models struggle to produce samples that respect constraints, a common requirement in scientific applications. Recent approaches have introduced regularization terms in the loss or guidance methods during sampling to enforce such constraints, but they bias the generative model away from the true data distribution. This is a problem, especially when the constraint is misspecified, a common issue when formulating constraints on scientific data. In this paper, instead of changing the loss or the sampling loop, we integrate a guidance-inspired adjustment into the denoiser itself, giving it a soft inductive bias towards constraint-compliant samples. We show that these softly constrained denoisers exploit constraint knowledge to improve compliance over standard denoisers, and maintain enough flexibility to deviate from it when there is misspecification with observed data.
- Abstract(参考訳): 拡散モデルは、科学的応用において共通の要件である制約を尊重するサンプルを作成するのに苦労する。
近年のアプローチでは、そのような制約を強制するためにサンプリング中の損失やガイダンスの方法に正規化用語を導入しているが、生成モデルを真のデータ分布から遠ざけている。
これは問題であり、特に制約が誤って特定された場合、科学データに対する制約を定式化する場合に共通する問題である。
本稿では、損失やサンプリングループを変更する代わりに、誘導にインスパイアされた調整をデノイザ自体に統合し、制約に順応するサンプルに対する軟質な誘導バイアスを与える。
これらのソフトな制約のあるデノイザは制約知識を利用して標準的なデノイザのコンプライアンスを改善し、観測データとの相違が生じた場合、その柔軟性を損なうことができることを示す。
関連論文リスト
- Mitigating the Noise Shift for Denoising Generative Models via Noise Awareness Guidance [54.88271057438763]
ノイズアウェアネスガイダンス (NAG) は、事前に定義された騒音スケジュールと整合性を保つために、サンプリング軌道を明示的に制御する補正手法である。
NAGは一貫してノイズシフトを緩和し、主流拡散モデルの生成品質を大幅に改善する。
論文 参考訳(メタデータ) (2025-10-14T13:31:34Z) - Simple and Critical Iterative Denoising: A Recasting of Discrete Diffusion in Graph Generation [0.0]
中間ノイズ状態間の依存関係は、逆ノイズ化プロセス中にエラーの蓄積と伝播を引き起こす。
本稿では, 離散拡散を単純化し, 問題を回避し, 簡易反復分解という新しい枠組みを提案する。
実験により,提案手法はグラフ生成タスクにおいて既存の離散拡散ベースラインを著しく上回ることを示す。
論文 参考訳(メタデータ) (2025-03-27T15:08:58Z) - Constrained Discrete Diffusion [61.81569616239755]
本稿では,拡散過程における微分可能制約最適化の新たな統合であるCDD(Constrained Discrete Diffusion)を紹介する。
CDDは直接、離散拡散サンプリングプロセスに制約を課し、トレーニング不要で効果的なアプローチをもたらす。
論文 参考訳(メタデータ) (2025-03-12T19:48:12Z) - Generalized Diffusion Model with Adjusted Offset Noise [1.7767466724342067]
本稿では,厳密な確率的枠組みの中で自然に付加的な雑音を取り入れた一般化拡散モデルを提案する。
我々は、ある調整でノイズを相殺する理論的等価性を確立し、証拠の低い境界に基づいて損失関数を導出する。
合成データセットの実験により、我々のモデルは輝度に関する課題に効果的に対処し、高次元シナリオにおいて従来の手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-12-04T08:57:03Z) - Physics-Informed Diffusion Models [0.0]
生成モデルと偏微分方程式の充足を統一する枠組みを提案する。
本手法は,流体流動ケーススタディにおける従来の研究と比較して,残差を最大2桁まで低減する。
論文 参考訳(メタデータ) (2024-03-21T13:52:55Z) - Constrained Synthesis with Projected Diffusion Models [47.56192362295252]
本稿では, 制約や物理原理の遵守を満足し, 証明する上で, 生成拡散プロセスへのアプローチを紹介する。
提案手法は, 従来の生成拡散過程を制約分布問題として再キャストし, 制約の順守を保証する。
論文 参考訳(メタデータ) (2024-02-05T22:18:16Z) - On Error Propagation of Diffusion Models [77.91480554418048]
DMのアーキテクチャにおける誤り伝播を数学的に定式化するための理論的枠組みを開発する。
累積誤差を正規化項として適用して誤差伝搬を低減する。
提案した正規化はエラーの伝播を低減し,バニラDMを大幅に改善し,以前のベースラインよりも優れていた。
論文 参考訳(メタデータ) (2023-08-09T15:31:17Z) - On Regularization and Inference with Label Constraints [62.60903248392479]
機械学習パイプラインにおけるラベル制約を符号化するための2つの戦略、制約付き正規化、制約付き推論を比較した。
正規化については、制約に不整合なモデルを前置することで一般化ギャップを狭めることを示す。
制約付き推論では、モデルの違反を訂正することで人口リスクを低減し、それによってその違反を有利にすることを示す。
論文 参考訳(メタデータ) (2023-07-08T03:39:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。