論文の概要: Condition Errors Refinement in Autoregressive Image Generation with Diffusion Loss
- arxiv url: http://arxiv.org/abs/2602.07022v1
- Date: Mon, 02 Feb 2026 07:48:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.365567
- Title: Condition Errors Refinement in Autoregressive Image Generation with Diffusion Loss
- Title(参考訳): 拡散損失を伴う自己回帰画像生成における条件誤差の補正
- Authors: Yucheng Zhou, Hao Li, Jianbing Shen,
- Abstract要約: 本稿では拡散損失を伴う拡散・自己回帰モデルの理論解析について述べる。
自動回帰モデルにおけるパッチデノゲーション最適化は、条件誤差を効果的に軽減し、安定した条件分布をもたらすことを示す。
「条件不整合に対処するための最適輸送(OT)理論に基づく新しい条件改善手法を導入する。」
- 参考スコア(独自算出の注目度): 56.120591983649824
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies have explored autoregressive models for image generation, with promising results, and have combined diffusion models with autoregressive frameworks to optimize image generation via diffusion losses. In this study, we present a theoretical analysis of diffusion and autoregressive models with diffusion loss, highlighting the latter's advantages. We present a theoretical comparison of conditional diffusion and autoregressive diffusion with diffusion loss, demonstrating that patch denoising optimization in autoregressive models effectively mitigates condition errors and leads to a stable condition distribution. Our analysis also reveals that autoregressive condition generation refines the condition, causing the condition error influence to decay exponentially. In addition, we introduce a novel condition refinement approach based on Optimal Transport (OT) theory to address ``condition inconsistency''. We theoretically demonstrate that formulating condition refinement as a Wasserstein Gradient Flow ensures convergence toward the ideal condition distribution, effectively mitigating condition inconsistency. Experiments demonstrate the superiority of our method over diffusion and autoregressive models with diffusion loss methods.
- Abstract(参考訳): 近年、画像生成のための自己回帰モデルと有望な結果について検討しており、拡散モデルと自己回帰フレームワークを組み合わせることで、拡散損失による画像生成を最適化している。
本研究では,拡散損失を伴う拡散モデルと自己回帰モデルの理論解析を行い,後者の利点を浮き彫りにする。
本稿では, 条件拡散と自己回帰拡散の拡散損失に関する理論的比較を行い, 自己回帰モデルにおけるパッチデノゲーション最適化が条件誤差を効果的に軽減し, 安定した条件分布をもたらすことを示した。
また, 自己回帰条件生成は条件を洗練させ, 条件誤差の影響を指数関数的に減少させることを示した。
さらに, 最適輸送(OT)理論に基づく新しい条件改善手法を導入し, 「条件の不整合性」に対処する。
理論的には,Wasserstein Gradient Flowとしての定式化条件の洗練は理想的な条件分布への収束を保証し,条件の不整合を効果的に緩和する。
拡散損失法による拡散モデルおよび自己回帰モデルよりも,本手法が優れていることを示す実験を行った。
関連論文リスト
- Demystifying Diffusion Objectives: Reweighted Losses are Better Variational Bounds [23.425710086428413]
拡散モデルの訓練に広く用いられている再重み付き損失の新たな理論的解釈を導出する。
本手法は,データログに時間依存的な変動的下界のカスケードを構築することに基づく。
本稿では、連続拡散モデルに匹敵するサンプル品質にアプローチし、画素空間画像モデリングにおける以前のトレーニング損失よりも大幅に改善したことを報告する。
論文 参考訳(メタデータ) (2025-11-24T19:58:45Z) - DeltaDiff: Reality-Driven Diffusion with AnchorResiduals for Faithful SR [10.790771977682763]
拡散過程を制約する新しいフレーム・ワークであるDeltaDiffを提案する。
提案手法は最先端のモデルを超え,忠実度を向上した再侮辱を生成する。
この研究は、画像再構成タスクに拡散モデルを適用するための、新しい低ランク制約パラパラダイムを確立する。
論文 参考訳(メタデータ) (2025-02-18T06:07:14Z) - Distilling Diffusion Models into Conditional GANs [90.76040478677609]
複雑な多段階拡散モデルを1段階条件付きGAN学生モデルに蒸留する。
E-LatentLPIPSは,拡散モデルの潜在空間で直接動作する知覚的損失である。
我々は, 最先端の1ステップ拡散蒸留モデルよりも優れた1ステップ発生器を実証した。
論文 参考訳(メタデータ) (2024-05-09T17:59:40Z) - Unveil Conditional Diffusion Models with Classifier-free Guidance: A Sharp Statistical Theory [87.00653989457834]
条件付き拡散モデルは現代の画像合成の基礎となり、計算生物学や強化学習などの分野に広く応用されている。
経験的成功にもかかわらず、条件拡散モデルの理論はほとんど欠落している。
本稿では,条件拡散モデルを用いた分布推定の急激な統計的理論を提示することにより,ギャップを埋める。
論文 参考訳(メタデータ) (2024-03-18T17:08:24Z) - Bi-Noising Diffusion: Towards Conditional Diffusion Models with
Generative Restoration Priors [64.24948495708337]
本研究では,事前訓練した非条件拡散モデルを用いて,予測サンプルをトレーニングデータ多様体に導入する手法を提案する。
我々は,超解像,着色,乱流除去,画像劣化作業におけるアプローチの有効性を実証するための総合的な実験を行った。
論文 参考訳(メタデータ) (2022-12-14T17:26:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。