論文の概要: Ouroboros: Single-step Diffusion Models for Cycle-consistent Forward and Inverse Rendering
- arxiv url: http://arxiv.org/abs/2508.14461v1
- Date: Wed, 20 Aug 2025 06:32:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-21 16:52:41.361022
- Title: Ouroboros: Single-step Diffusion Models for Cycle-consistent Forward and Inverse Rendering
- Title(参考訳): Ouroboros: サイクル一貫性フォワードと逆レンダリングのための単一ステップ拡散モデル
- Authors: Shanlin Sun, Yifan Wang, Hanwen Zhang, Yifeng Xiong, Qin Ren, Ruogu Fang, Xiaohui Xie, Chenyu You,
- Abstract要約: Ouroborosは2つの単一ステップ拡散モデルからなるフレームワークであり、相互強化により前方および逆レンダリングを処理する。
我々は,Ouroborosが動画分解に訓練なしで移行でき,ビデオシーケンスの時間的不整合を低減できることを示す。
- 参考スコア(独自算出の注目度): 28.34738022980037
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While multi-step diffusion models have advanced both forward and inverse rendering, existing approaches often treat these problems independently, leading to cycle inconsistency and slow inference speed. In this work, we present Ouroboros, a framework composed of two single-step diffusion models that handle forward and inverse rendering with mutual reinforcement. Our approach extends intrinsic decomposition to both indoor and outdoor scenes and introduces a cycle consistency mechanism that ensures coherence between forward and inverse rendering outputs. Experimental results demonstrate state-of-the-art performance across diverse scenes while achieving substantially faster inference speed compared to other diffusion-based methods. We also demonstrate that Ouroboros can transfer to video decomposition in a training-free manner, reducing temporal inconsistency in video sequences while maintaining high-quality per-frame inverse rendering.
- Abstract(参考訳): 多段階拡散モデルは前方および逆レンダリングの両方に進歩しているが、既存の手法はしばしばこれらの問題を独立に扱い、サイクルの不整合と推論速度が遅くなる。
本稿では,2つの単一ステップ拡散モデルからなるフレームワークであるOuroborosについて述べる。
提案手法は,本態的な分解を屋内と屋外の両方に拡張し,前と逆のレンダリング出力のコヒーレンスを保証するサイクル整合性機構を導入する。
実験により,様々な場面における最先端性能を示すとともに,他の拡散法に比べて推論速度が大幅に向上した。
また,Ouroborosは,フレーム単位の高品質な逆レンダリングを維持しつつ,ビデオシーケンスの時間的不整合を低減できることを示した。
関連論文リスト
- AR-Diffusion: Asynchronous Video Generation with Auto-Regressive Diffusion [19.98565541640125]
自動回帰拡散(AR-Diffusion, Auto-Regressive Diffusion)は, フレキシブルビデオ生成のための自己回帰拡散モデルと拡散モデルの強みを組み合わせた新しいモデルである。
自己回帰生成に触発されて、個々のフレームの腐敗タイムステップに非減少制約を組み込む。
このセットアップは、時間的因果的注意とともに、時間的コヒーレンスを保ちながら、長さの異なる柔軟なビデオの生成を可能にする。
論文 参考訳(メタデータ) (2025-03-10T15:05:59Z) - One-Step Diffusion Model for Image Motion-Deblurring [85.76149042561507]
本稿では,脱臭過程を1段階に短縮する新しいフレームワークである脱臭拡散モデル(OSDD)を提案する。
拡散モデルにおける忠実度損失に対処するために,構造復元を改善する改良された変分オートエンコーダ(eVAE)を導入する。
提案手法は,実測値と非参照値の両方で高い性能を達成する。
論文 参考訳(メタデータ) (2025-03-09T09:39:57Z) - Oscillation Inversion: Understand the structure of Large Flow Model through the Lens of Inversion Method [60.88467353578118]
実世界のイメージを逆転させる固定点インスパイアされた反復的アプローチは収束を達成せず、異なるクラスタ間で振動することを示す。
本稿では,画像強調,ストロークベースのリカラー化,および視覚的プロンプト誘導画像編集を容易にする,シンプルで高速な分布転送手法を提案する。
論文 参考訳(メタデータ) (2024-11-17T17:45:37Z) - Solving Video Inverse Problems Using Image Diffusion Models [58.464465016269614]
本稿では,画像拡散モデルのみを活用する革新的なビデオ逆解法を提案する。
本手法は,映像の時間次元をバッチ次元画像拡散モデルとして扱う。
また、バッチ間の一貫性を促進するバッチ一貫性サンプリング戦略も導入しています。
論文 参考訳(メタデータ) (2024-09-04T09:48:27Z) - Training-Free Semantic Video Composition via Pre-trained Diffusion Model [96.0168609879295]
現在のアプローチは、主に前景の色と照明を調整したビデオで訓練されており、表面的な調整以上の深い意味の相違に対処するのに苦労している。
本研究では,事前知識を付加した事前学習拡散モデルを用いた学習自由パイプラインを提案する。
実験の結果,我々のパイプラインは出力の視覚的調和とフレーム間のコヒーレンスを確実にすることがわかった。
論文 参考訳(メタデータ) (2024-01-17T13:07:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。