論文の概要: TraceFlow: Dynamic 3D Reconstruction of Specular Scenes Driven by Ray Tracing
- arxiv url: http://arxiv.org/abs/2512.10095v1
- Date: Wed, 10 Dec 2025 21:36:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 16:15:42.070324
- Title: TraceFlow: Dynamic 3D Reconstruction of Specular Scenes Driven by Ray Tracing
- Title(参考訳): TraceFlow: レイトレーシングによる特異シーンの動的3次元再構成
- Authors: Jiachen Tao, Junyi Wu, Haoxuan Wang, Zongxin Yang, Dawen Cai, Yan Yan,
- Abstract要約: TraceFlowは動的スペキュラシーンの高忠実なレンダリングのための新しいフレームワークである。
我々は、正確な反射方向推定と物理的に正確な反射モデルという2つの主要な課題に対処する。
- 参考スコア(独自算出の注目度): 34.45042161126935
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present TraceFlow, a novel framework for high-fidelity rendering of dynamic specular scenes by addressing two key challenges: precise reflection direction estimation and physically accurate reflection modeling. To achieve this, we propose a Residual Material-Augmented 2D Gaussian Splatting representation that models dynamic geometry and material properties, allowing accurate reflection ray computation. Furthermore, we introduce a Dynamic Environment Gaussian and a hybrid rendering pipeline that decomposes rendering into diffuse and specular components, enabling physically grounded specular synthesis via rasterization and ray tracing. Finally, we devise a coarse-to-fine training strategy to improve optimization stability and promote physically meaningful decomposition. Extensive experiments on dynamic scene benchmarks demonstrate that TraceFlow outperforms prior methods both quantitatively and qualitatively, producing sharper and more realistic specular reflections in complex dynamic environments.
- Abstract(参考訳): 我々は,動的スペキュラシーンの高忠実なレンダリングのための新しいフレームワークであるTraceFlowについて,正確な反射方向推定と物理的に正確なリフレクションモデリングという2つの重要な課題に対処する。
これを実現するために,動的幾何学と材料特性をモデル化し,正確な反射線計算が可能なResidual Material-Augmented 2D Gaussian Splatting表現を提案する。
さらに、動的環境ガウシアンとハイブリッドレンダリングパイプラインを導入し、レンダリングを拡散およびスペクトル成分に分解し、ラスタ化とレイトレーシングによる物理的に基底化されたスペクトル合成を可能にする。
最後に、最適化安定性を改善し、物理的に意味のある分解を促進するための粗大な訓練戦略を考案する。
ダイナミックシーンベンチマークの大規模な実験により、TraceFlowは従来の手法よりも定量的かつ質的に優れており、複雑な動的環境においてよりシャープでより現実的なスペクトル反射を生み出すことが示されている。
関連論文リスト
- MaterialRefGS: Reflective Gaussian Splatting with Multi-view Consistent Material Inference [83.38607296779423]
より物理的な環境モデルを用いた多視点一貫した物質推定がガウススプラッティングによる正確な反射の学習の鍵となることを示す。
本手法は照明と幾何学の両方を忠実に復元し,新しいビュー合成における最先端のレンダリング品質を実現する。
論文 参考訳(メタデータ) (2025-10-13T13:29:20Z) - CoDe-NeRF: Neural Rendering via Dynamic Coefficient Decomposition [28.96821860867129]
動的係数分解に基づくニューラルネットワークレンダリングフレームワークを提案する。
我々のアプローチは、複雑な外観を、固有の材料特性を符号化する共有静的ニューラルネットワークベースに分解する。
提案手法は,既存の手法と比較して,よりシャープでリアルなスペクトルハイライトを生成できることを示す。
論文 参考訳(メタデータ) (2025-08-08T18:30:02Z) - Enhanced Velocity Field Modeling for Gaussian Video Reconstruction [21.54297055995746]
バーチャル・拡張現実(VR/AR)における動的シーンのリアルタイムレンダリングを実現するためには,高忠実度3次元映像再構成が不可欠である
本稿では,フローガウス-VR(FlowGaussian-VR)と呼ばれるガウスビデオ再構成に適した流速場モデリング手法を提案する。
フローベースの最適化を可能にする速度場レンダリング(VFR)パイプラインと、動的領域におけるガウス数とサイズを調整するフローアシスト適応密度化(FAD)戦略の2つのコアコンポーネントで構成されている。
論文 参考訳(メタデータ) (2025-07-31T16:26:22Z) - DGS-LRM: Real-Time Deformable 3D Gaussian Reconstruction From Monocular Videos [52.46386528202226]
Deformable Gaussian Splats Large Reconstruction Model (DGS-LRM)を紹介する。
動的シーンのモノクロポーズビデオから変形可能な3Dガウススプラットを予測する最初のフィードフォワード法である。
最先端のモノクロビデオ3D追跡手法と同等の性能を発揮する。
論文 参考訳(メタデータ) (2025-06-11T17:59:58Z) - BEAM: Bridging Physically-based Rendering and Gaussian Modeling for Relightable Volumetric Video [58.97416204208624]
BEAMは、4Dガウス表現を物理ベースレンダリング(PBR)でブリッジし、高品質でライティング可能なビデオを生成する新しいパイプラインである。
BEAMは、様々な照明条件下で現実的な人生のような可視化を提供することで、インタラクティブなエンターテイメント、ストーリーテリング、クリエイティブな可視化の新しい可能性を開く。
論文 参考訳(メタデータ) (2025-02-12T10:58:09Z) - DGNS: Deformable Gaussian Splatting and Dynamic Neural Surface for Monocular Dynamic 3D Reconstruction [17.2650972298677]
我々は、UnderlineDeformable UnderlineGaussian SplattingとDynamic UnderlineNeural UnderlineSurfaceを統合するハイブリッドフレームワークであるDGNSを紹介する。
公開データセットを用いて行った実験により、DGNSは3次元再構成において最先端のパフォーマンスを達成し、新規ビュー合成の競争的な結果が得られた。
論文 参考訳(メタデータ) (2024-12-05T06:28:08Z) - Event-boosted Deformable 3D Gaussians for Dynamic Scene Reconstruction [50.873820265165975]
本稿では,高時間分解能連続運動データと動的シーン再構成のための変形可能な3D-GSを併用したイベントカメラについて紹介する。
本稿では、3次元再構成としきい値モデリングの両方を大幅に改善する相互強化プロセスを作成するGS-Thresholdジョイントモデリング戦略を提案する。
提案手法は,合成および実世界の動的シーンを用いた最初のイベント包摂型4Dベンチマークであり,その上で最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-11-25T08:23:38Z) - SpectroMotion: Dynamic 3D Reconstruction of Specular Scenes [7.590932716513324]
本稿では,3次元ガウス散乱(3DGS)と物理ベースレンダリング(PBR)と変形場を組み合わせた動的特異シーンの再構成手法を提案する。
フォトリアリスティック・リアルワールド・ダイナミック・スペキュラ・シーンを合成できる3DGS法は、現存する唯一のものである。
論文 参考訳(メタデータ) (2024-10-22T17:59:56Z) - EmerNeRF: Emergent Spatial-Temporal Scene Decomposition via
Self-Supervision [85.17951804790515]
EmerNeRFは動的駆動シーンの時空間表現を学習するためのシンプルだが強力なアプローチである。
シーンの幾何学、外観、動き、セマンティクスを自己ブートストラップで同時にキャプチャする。
本手法はセンサシミュレーションにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2023-11-03T17:59:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。