論文の概要: Blind denoising diffusion models and the blessings of dimensionality
- arxiv url: http://arxiv.org/abs/2602.09639v1
- Date: Tue, 10 Feb 2026 10:38:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.50001
- Title: Blind denoising diffusion models and the blessings of dimensionality
- Title(参考訳): ブラインド縮退拡散モデルと次元の祝福
- Authors: Zahra Kadkhodaie, Aram-Alexandre Pooladian, Sinho Chewi, Eero Simoncelli,
- Abstract要約: 我々は,視覚障害者を対象とした生成拡散モデルの性能を理論的,実証的に分析した。
目立ったことに、スケジュールのないBDDMは、非盲人に比べて高品質なサンプルを生成する。
- 参考スコア(独自算出の注目度): 14.525157313875459
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We analyze, theoretically and empirically, the performance of generative diffusion models based on \emph{blind denoisers}, in which the denoiser is not given the noise amplitude in either the training or sampling processes. Assuming that the data distribution has low intrinsic dimensionality, we prove that blind denoising diffusion models (BDDMs), despite not having access to the noise amplitude, \emph{automatically} track a particular \emph{implicit} noise schedule along the reverse process. Our analysis shows that BDDMs can accurately sample from the data distribution in polynomially many steps as a function of the intrinsic dimension. Empirical results corroborate these mathematical findings on both synthetic and image data, demonstrating that the noise variance is accurately estimated from the noisy image. Remarkably, we observe that schedule-free BDDMs produce samples of higher quality compared to their non-blind counterparts. We provide evidence that this performance gain arises because BDDMs correct the mismatch between the true residual noise (of the image) and the noise assumed by the schedule used in non-blind diffusion models.
- Abstract(参考訳): 我々は,学習過程とサンプリング過程の両方においてノイズ振幅を付与しない<emph{blind denoisers}に基づく生成拡散モデルの性能を理論的に,理論的に,実証的に分析する。
データ分布が本質的な次元が低いと仮定すると、ノイズ振幅にアクセスできないにもかかわらず、逆過程に沿って特定の \emph{implicit} ノイズスケジュールをトラックすることを証明する。
本分析により, BDDMsは, 固有次元の関数として, 多項式的に多くのステップでデータ分布から正確にサンプリングできることが示唆された。
実験結果は, 合成データと画像データの両方でこれらの数学的知見を相関させ, ノイズ分散をノイズ画像から正確に推定することを示した。
目立ったことに、スケジュールのないBDDMは、非盲人に比べて高品質なサンプルを生成する。
BDDMが真の残差ノイズ(画像の残差ノイズ)と、非盲検拡散モデルで使用されるスケジュールによって想定されるノイズとのミスマッチを補正するため、この性能向上が生じる証拠を提供する。
関連論文リスト
- Noise Conditional Variational Score Distillation [60.38982038894823]
騒音条件変化スコア蒸留(NCVSD)は, 予混合拡散モデルから生成消音剤を蒸留する新しい方法である。
この知見を変分スコア蒸留フレームワークに組み込むことで、生成的デノイザのスケーラブルな学習を可能にする。
論文 参考訳(メタデータ) (2025-06-11T06:01:39Z) - VIPaint: Image Inpainting with Pre-Trained Diffusion Models via Variational Inference [5.852077003870417]
我々のVIPaint法は,提案手法の妥当性と多様性の両方において,従来の手法よりも優れていることを示す。
我々のVIPaint法は,提案手法の妥当性と多様性の両方において,従来の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-11-28T05:35:36Z) - Listening to the Noise: Blind Denoising with Gibbs Diffusion [4.310554658046964]
雑音分布の族に先立って信号のマッピングを訓練した条件拡散モデルからサンプリングステップを交互に行うギブスアルゴリズムを開発した。
我々の理論的分析は潜在的な落とし穴を強調し、診断利用をガイドし、ギブス定常分布の誤差を定量化する。
本研究では,1)未知の振幅とスペクトル指数を持つ有色雑音を含む自然画像の視覚的復調,2)宇宙論の問題について述べる。
論文 参考訳(メタデータ) (2024-02-29T18:50:11Z) - Blue noise for diffusion models [50.99852321110366]
本稿では,画像内および画像間の相関雑音を考慮した拡散モデルを提案する。
我々のフレームワークは、勾配流を改善するために、1つのミニバッチ内に画像間の相関を導入することができる。
本手法を用いて,各種データセットの質的,定量的な評価を行う。
論文 参考訳(メタデータ) (2024-02-07T14:59:25Z) - Risk-Sensitive Diffusion: Robustly Optimizing Diffusion Models with Noisy Samples [58.68233326265417]
非画像データは実際のアプリケーションで広く使われており、ノイズが多い傾向にある。
リスク感受性SDEは、リスクベクトルによってパラメータ化された微分方程式(SDE)の一種である。
我々はガウス雑音分布と非ガウス雑音分布の両方について系統的研究を行う。
論文 参考訳(メタデータ) (2024-02-03T08:41:51Z) - Soft Mixture Denoising: Beyond the Expressive Bottleneck of Diffusion
Models [76.46246743508651]
我々は,現在の拡散モデルが後方認知において表現力のあるボトルネックを持っていることを示した。
本稿では,後方復調のための表現的かつ効率的なモデルであるソフトミキシング・デノナイジング(SMD)を導入する。
論文 参考訳(メタデータ) (2023-09-25T12:03:32Z) - Denoising Diffusion Samplers [41.796349001299156]
拡散モデルの認知は、多くの領域で最先端の結果を提供する生成モデルの一般的なクラスである。
我々は、非正規化確率密度関数から大まかにサンプリングし、それらの正規化定数を推定する類似のアイデアを探求する。
この文脈ではスコアマッチングは適用できないが、モンテカルロサンプリングのために生成的モデリングで導入された多くのアイデアを利用することができる。
論文 参考訳(メタデータ) (2023-02-27T14:37:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。