論文の概要: Radiometrically Consistent Gaussian Surfels for Inverse Rendering
- arxiv url: http://arxiv.org/abs/2603.01491v1
- Date: Mon, 02 Mar 2026 06:00:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.707906
- Title: Radiometrically Consistent Gaussian Surfels for Inverse Rendering
- Title(参考訳): 逆レンダリングのための放射量一貫性ガウスサーフィン
- Authors: Kyu Beom Han, Jaeyoon Kim, Woo Jae Kim, Jinhwan Seo, Sung-eui Yoon,
- Abstract要約: ガウススプラッティングによる逆レンダリングは急速に進歩しているが、材料特性を正確に切り離すことは大きな課題である。
我々は、観測されていない視点に対する監視を提供する、新しい物理ベースの制約である、放射能の一貫性を導入する。
次に、我々の原理に基づいて構築された逆レンダリングフレームワークであるRadioGSを提案する。
- 参考スコア(独自算出の注目度): 24.969420082811094
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Inverse rendering with Gaussian Splatting has advanced rapidly, but accurately disentangling material properties from complex global illumination effects, particularly indirect illumination, remains a major challenge. Existing methods often query indirect radiance from Gaussian primitives pre-trained for novel-view synthesis. However, these pre-trained Gaussian primitives are supervised only towards limited training viewpoints, thus lack supervision for modeling indirect radiances from unobserved views. To address this issue, we introduce radiometric consistency, a novel physically-based constraint that provides supervision towards unobserved views by minimizing the residual between each Gaussian primitive's learned radiance and its physically-based rendered counterpart. Minimizing the residual for unobserved views establishes a self-correcting feedback loop that provides supervision from both physically-based rendering and novel-view synthesis, enabling accurate modeling of inter-reflection. We then propose Radiometrically Consistent Gaussian Surfels (RadioGS), an inverse rendering framework built upon our principle by efficiently integrating radiometric consistency by utilizing Gaussian surfels and 2D Gaussian ray tracing. We further propose a finetuning-based relighting strategy that adapts Gaussian surfel radiances to new illuminations within minutes, achieving low rendering cost (<10ms). Extensive experiments on existing inverse rendering benchmarks show that RadioGS outperforms existing Gaussian-based methods in inverse rendering, while retaining the computational efficiency.
- Abstract(参考訳): ガウス散乱による逆レンダリングは急速に進歩しているが、複雑な大域的な照明効果、特に間接的な照明効果から物質特性を正確に切り離すことは大きな課題である。
既存の方法は、しばしば新規ビュー合成のために事前訓練されたガウス原始体からの間接放射をクエリする。
しかし、これらの事前訓練されたガウス原始体は、限られた訓練視点にのみ監督されるため、観測されていない視点から間接ラジダスをモデル化するための監督が欠如している。
この問題に対処するために,各ガウスプリミティブの学習放射率と物理ベースレンダリングの残差を最小化することにより,観測不能な視点に対する監視を提供する,新しい物理ベース制約であるラジオメトリック整合性を導入する。
未観測ビューの残余を最小化することは、物理的ベースレンダリングと新規ビュー合成の両方からの監督を提供する自己修正フィードバックループを確立し、相互反射の正確なモデリングを可能にする。
次に、ガウス波と2次元ガウス線トレーシングを利用して、効率よく放射光の整合性を統合することで、我々の原理に基づいて構築された逆レンダリングフレームワークであるRadioGSを提案する。
さらに,ガウス波の放射光を数分で新しい照明に適応させ,低レンダリングコスト(10ms)を実現するファインタニングベースの照明戦略を提案する。
既存の逆レンダリングベンチマークの大規模な実験により、RadioGSは計算効率を保ちながら、逆レンダリングにおいて既存のガウス法よりも優れていることが示された。
関連論文リスト
- LiDAR-GS++:Improving LiDAR Gaussian Reconstruction via Diffusion Priors [51.724649822336346]
実時間および高忠実度再シミュレーションのための拡散前処理により強化された再構成手法であるLiDAR-GS++を提案する。
具体的には、粗い外挿レンダリングを条件とした制御可能なLiDAR生成モデルを導入し、余分な幾何整合性スキャンを生成する。
再構成を未適合領域にまで拡張することにより,外挿的視点に対するグローバルな幾何整合性を確保することができる。
論文 参考訳(メタデータ) (2025-11-15T17:33:12Z) - MaterialRefGS: Reflective Gaussian Splatting with Multi-view Consistent Material Inference [83.38607296779423]
より物理的な環境モデルを用いた多視点一貫した物質推定がガウススプラッティングによる正確な反射の学習の鍵となることを示す。
本手法は照明と幾何学の両方を忠実に復元し,新しいビュー合成における最先端のレンダリング品質を実現する。
論文 参考訳(メタデータ) (2025-10-13T13:29:20Z) - Differentiable Light Transport with Gaussian Surfels via Adapted Radiosity for Efficient Relighting and Geometry Reconstruction [32.713220877091565]
放射場は、新しいビュー合成から幾何学的再構成まで幅広い応用で大きな成功を収めている。
これらの制限に対処する方法の1つは、物理ベースのレンダリングを組み込むことである。
最適化の内ループに完全なグローバル照明を組み込むことは、違法に高価である。
論文 参考訳(メタデータ) (2025-09-23T01:02:31Z) - On the Skinning of Gaussian Avatars [6.915151148382041]
観測空間から標準空間へのスローレンダリングと後方マッピングが主な課題である。
四元数平均化を利用した重み付き回転ブレンディング手法を提案する。
論文 参考訳(メタデータ) (2025-09-14T19:58:48Z) - Reflective Gaussian Splatting [36.111845416439095]
本稿では2つの成分を特徴とする反射ガウススプラッティング(Ref-Gaussian)フレームワークを提案する。
Ref-Gaussianは、定量的メトリクス、視覚的品質、計算効率の点で、既存のアプローチを超越している。
また、Ref-Gaussianは、リライトや編集など、より多くのアプリケーションをサポートしています。
論文 参考訳(メタデータ) (2024-12-26T16:58:35Z) - IRGS: Inter-Reflective Gaussian Splatting with 2D Gaussian Ray Tracing [3.147103287687791]
逆レンダリングのための反射型ガウススプラッティング(IRGS)を導入する。
本研究では, 簡易化を伴わず, 入射放射率を計算し, フルレンダリング式を適用した。
さらに、最適化されたシーンをリライトする際、入射光の間接放射率を問い合わせる新しい手法を導入する。
論文 参考訳(メタデータ) (2024-12-20T13:10:43Z) - Binocular-Guided 3D Gaussian Splatting with View Consistency for Sparse View Synthesis [53.702118455883095]
本稿では,ガウススプラッティングを用いたスパースビューから新しいビューを合成する新しい手法を提案する。
私たちのキーとなるアイデアは、両眼画像間の両眼立体的一貫性に固有の自己超越を探索することにあります。
我々の手法は最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2024-10-24T15:10:27Z) - 3D Gaussian Splatting with Deferred Reflection [25.254842246219585]
本稿では,ガウススプラッティングによるスペクトル反射の遅延シェーディング法を提案する。
提案手法は,高品質なスペクトル反射効果の合成における最先端技術と同時処理を著しく上回っている。
論文 参考訳(メタデータ) (2024-04-29T06:24:32Z) - DeferredGS: Decoupled and Editable Gaussian Splatting with Deferred Shading [50.331929164207324]
我々は,遅延シェーディングを用いたガウススプレイティング表現のデカップリングと編集を行うDedeerredGSを紹介する。
定性的かつ定量的な実験は、新しいビューおよび編集タスクにおけるDederredGSの優れた性能を示す。
論文 参考訳(メタデータ) (2024-04-15T01:58:54Z) - IntrinsicNeRF: Learning Intrinsic Neural Radiance Fields for Editable
Novel View Synthesis [90.03590032170169]
内在性ニューラルレンダリング法に内在性分解を導入した内在性ニューラルレイディアンス場(IntrinsicNeRF)を提案する。
そこで,本研究では,オブジェクト固有・ルームスケールシーンと合成・実単語データの両方を用いて,一貫した本質的な分解結果が得られることを示す。
論文 参考訳(メタデータ) (2022-10-02T22:45:11Z) - InfoNeRF: Ray Entropy Minimization for Few-Shot Neural Volume Rendering [55.70938412352287]
ニューラルな暗黙表現に基づく数ショットの新規ビュー合成のための情報理論正規化手法を提案する。
提案手法は,不十分な視点で発生する潜在的な復元の不整合を最小化する。
複数の標準ベンチマークにおいて,既存のニューラルビュー合成手法と比較して一貫した性能向上を実現している。
論文 参考訳(メタデータ) (2021-12-31T11:56:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。