論文の概要: RenderFlow: Single-Step Neural Rendering via Flow Matching
- arxiv url: http://arxiv.org/abs/2601.06928v1
- Date: Sun, 11 Jan 2026 14:28:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.07058
- Title: RenderFlow: Single-Step Neural Rendering via Flow Matching
- Title(参考訳): RenderFlow:フローマッチングによるシングルステップニューラルレンダリング
- Authors: Shenghao Zhang, Runtao Liu, Christopher Schroers, Yang Zhang,
- Abstract要約: 本稿では,フローマッチングパラダイムに基づいて構築された,エンドツーエンド,決定論的,単一ステップのニューラルレンダリングフレームワークRenderFlowを提案する。
本手法はレンダリング処理を大幅に高速化し,出力の物理的妥当性と全体的な視覚的品質を向上する。
結果として得られるパイプラインは、フォトリアリスティックなレンダリング品質でほぼリアルタイムのパフォーマンスを実現し、現代の生成モデルの効率と従来の物理ベースのレンダリングの精度とのギャップを効果的に埋める。
- 参考スコア(独自算出の注目度): 17.56739408578129
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conventional physically based rendering (PBR) pipelines generate photorealistic images through computationally intensive light transport simulations. Although recent deep learning approaches leverage diffusion model priors with geometry buffers (G-buffers) to produce visually compelling results without explicit scene geometry or light simulation, they remain constrained by two major limitations. First, the iterative nature of the diffusion process introduces substantial latency. Second, the inherent stochasticity of these generative models compromises physical accuracy and temporal consistency. In response to these challenges, we propose a novel, end-to-end, deterministic, single-step neural rendering framework, RenderFlow, built upon a flow matching paradigm. To further strengthen both rendering quality and generalization, we propose an efficient and effective module for sparse keyframe guidance. Our method significantly accelerates the rendering process and, by optionally incorporating sparsely rendered keyframes as guidance, enhances both the physical plausibility and overall visual quality of the output. The resulting pipeline achieves near real-time performance with photorealistic rendering quality, effectively bridging the gap between the efficiency of modern generative models and the precision of traditional physically based rendering. Furthermore, we demonstrate the versatility of our framework by introducing a lightweight, adapter-based module that efficiently repurposes the pretrained forward model for the inverse rendering task of intrinsic decomposition.
- Abstract(参考訳): 従来の物理ベースレンダリング(PBR)パイプラインは、計算集約的な光輸送シミュレーションを通じて光リアル性画像を生成する。
近年の深層学習手法では、幾何学バッファ(Gバッファ)を用いた拡散モデルにより、明示的なシーン幾何学や光シミュレーションを使わずに視覚的に魅力的な結果が得られるが、これらは2つの大きな制限によって制約されている。
まず、拡散過程の反復的な性質は、かなりの遅延をもたらす。
第二に、これらの生成モデルの固有の確率性は、物理的精度と時間的一貫性を損なう。
これらの課題に対応するために、フローマッチングパラダイムに基づいて構築された、新しい、エンドツーエンド、決定論的、単一ステップのニューラルレンダリングフレームワークRenderFlowを提案する。
レンダリング品質と一般化の両面をさらに強化するために,スパース鍵フレーム誘導のための効率的かつ効率的なモジュールを提案する。
提案手法はレンダリング処理を著しく高速化し,少ない描画キーフレームをガイダンスとして任意に組み込むことで,出力の物理的妥当性と全体的な視覚的品質を向上する。
結果として得られるパイプラインは、フォトリアリスティックなレンダリング品質でほぼリアルタイムのパフォーマンスを実現し、現代の生成モデルの効率と従来の物理ベースのレンダリングの精度とのギャップを効果的に埋める。
さらに,本フレームワークの汎用性を示すために,適応型モジュールを導入し,固有分解の逆レンダリングタスクに対して,事前学習したフォワードモデルを効率的に再利用した。
関連論文リスト
- A Convolutional Neural Deferred Shader for Physics Based Rendering [9.933770503395117]
ニューラルレンダリングの最近の進歩は、フォトリアリスティックシェーディングとリライティングにおいて印象的な成果を上げている。
本稿では、畳み込みニューラルネットワークを用いてパラメータを減少させる物理ベースのニューラル遅延シェーディングパイプラインであるpbnds+を紹介する。
論文 参考訳(メタデータ) (2025-12-22T16:16:13Z) - FideDiff: Efficient Diffusion Model for High-Fidelity Image Motion Deblurring [33.809728459395785]
FideDiffは、高忠実度デブロアリング用に設計された新しい単一ステップ拡散モデルである。
我々は、各タイムステップが徐々にぼやけた画像を表す拡散のようなプロセスとして、動きのデブロアリングを再構成する。
一致したぼやけた軌跡でトレーニングデータを再構成することにより、モデルは時間的一貫性を学習し、正確なワンステップのデブロワーを可能にする。
論文 参考訳(メタデータ) (2025-10-02T03:44:45Z) - One-Step Diffusion Model for Image Motion-Deblurring [85.76149042561507]
本稿では,脱臭過程を1段階に短縮する新しいフレームワークである脱臭拡散モデル(OSDD)を提案する。
拡散モデルにおける忠実度損失に対処するために,構造復元を改善する改良された変分オートエンコーダ(eVAE)を導入する。
提案手法は,実測値と非参照値の両方で高い性能を達成する。
論文 参考訳(メタデータ) (2025-03-09T09:39:57Z) - DiffusionRenderer: Neural Inverse and Forward Rendering with Video Diffusion Models [83.28670336340608]
逆レンダリングとフォワードレンダリングの二重問題に対処するニューラルアプローチであるDiffusionRendererを導入する。
本モデルは,リライティング,素材編集,現実的なオブジェクト挿入など,単一のビデオ入力から現実的な応用を可能にする。
論文 参考訳(メタデータ) (2025-01-30T18:59:11Z) - Uni-Renderer: Unifying Rendering and Inverse Rendering Via Dual Stream Diffusion [14.779121995147056]
レンダリングと逆レンダリングはコンピュータビジョンとグラフィックスにおいて重要なタスクである。
本稿では、2つの条件生成タスクとしてレンダリングと逆レンダリングを共同でモデル化するデータ駆動手法を提案する。
トレーニングと推論のコードをオープンソースとして公開し、この分野のさらなる研究と開発を後押しします。
論文 参考訳(メタデータ) (2024-12-19T16:57:45Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - DIB-R++: Learning to Predict Lighting and Material with a Hybrid
Differentiable Renderer [78.91753256634453]
そこで本研究では,単体画像から固有物体特性を推定する難題について,微分可能量を用いて検討する。
そこで本研究では、スペクトル化とレイトレーシングを組み合わせることで、これらの効果をサポートするハイブリッド微分可能なDIBR++を提案する。
より高度な物理ベースの微分可能値と比較すると、DIBR++はコンパクトで表現力のあるモデルであるため、高い性能を持つ。
論文 参考訳(メタデータ) (2021-10-30T01:59:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。