論文の概要: ROSGS: Relightable Outdoor Scenes With Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2509.11275v1
- Date: Sun, 14 Sep 2025 13:58:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:23.00803
- Title: ROSGS: Relightable Outdoor Scenes With Gaussian Splatting
- Title(参考訳): ROSGS:ガウシアンスプレイティングで楽しい屋外シーン
- Authors: Lianjun Liao, Chunhui Zhang, Tong Wu, Henglei Lv, Bailin Deng, Lin Gao,
- Abstract要約: ROSGSは,ガウシアン・スプラッティング表現を用いて,光沢のある屋外シーンを再構築するための2段階パイプラインである。
ROSGSは、屋外のシーンをリライトする際の最先端性能を実現し、より優れたリライト精度とレンダリング効率を実現する能力を強調した。
- 参考スコア(独自算出の注目度): 33.2992160880414
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image data captured outdoors often exhibit unbounded scenes and unconstrained, varying lighting conditions, making it challenging to decompose them into geometry, reflectance, and illumination. Recent works have focused on achieving this decomposition using Neural Radiance Fields (NeRF) or the 3D Gaussian Splatting (3DGS) representation but remain hindered by two key limitations: the high computational overhead associated with neural networks of NeRF and the use of low-frequency lighting representations, which often result in inefficient rendering and suboptimal relighting accuracy. We propose ROSGS, a two-stage pipeline designed to efficiently reconstruct relightable outdoor scenes using the Gaussian Splatting representation. By leveraging monocular normal priors, ROSGS first reconstructs the scene's geometry with the compact 2D Gaussian Splatting (2DGS) representation, providing an efficient and accurate geometric foundation. Building upon this reconstructed geometry, ROSGS then decomposes the scene's texture and lighting through a hybrid lighting model. This model effectively represents typical outdoor lighting by employing a spherical Gaussian function to capture the directional, high-frequency components of sunlight, while learning a radiance transfer function via Spherical Harmonic coefficients to model the remaining low-frequency skylight comprehensively. Both quantitative metrics and qualitative comparisons demonstrate that ROSGS achieves state-of-the-art performance in relighting outdoor scenes and highlight its ability to deliver superior relighting accuracy and rendering efficiency.
- Abstract(参考訳): 屋外で撮影された画像データは、しばしば境界のないシーンと制約のない様々な照明条件を示し、それらを幾何学、反射、照明に分解することは困難である。
最近の研究は、NeRF(Neural Radiance Fields)または3D Gaussian Splatting(3DGS)表現を用いてこの分解を実現することに重点を置いているが、NeRFのニューラルネットワークに関連する高い計算オーバーヘッドと低周波照明表現の使用という2つの大きな制限により妨げられている。
ROSGSは,ガウシアン・スプラッティングの表現を用いて,照明可能な屋外シーンを効率的に再構築するための2段階パイプラインである。
ROSGSは、単分子の正規項を利用することにより、まず、コンパクトな2Dガウススプラッティング(2DGS)表現でシーンの幾何学を再構築し、効率的で正確な幾何学的基礎を提供する。
この再構成された幾何学に基づいて、ROSGSはシーンのテクスチャと照明をハイブリッド照明モデルで分解する。
このモデルは、球状ガウス関数を用いて日光の指向性、高周波成分を捉えるとともに、球状高調波係数を介して放射伝達関数を学習し、残りの低周波スカイライトを包括的にモデル化することで、典型的な屋外照明を効果的に表現する。
定量的メトリクスと質的比較の両方は、ROSGSが屋外のシーンをリライトする際の最先端のパフォーマンスを実現し、より優れたリライト精度とレンダリング効率を実現する能力を強調していることを示している。
関連論文リスト
- MaterialRefGS: Reflective Gaussian Splatting with Multi-view Consistent Material Inference [83.38607296779423]
より物理的な環境モデルを用いた多視点一貫した物質推定がガウススプラッティングによる正確な反射の学習の鍵となることを示す。
本手法は照明と幾何学の両方を忠実に復元し,新しいビュー合成における最先端のレンダリング品質を実現する。
論文 参考訳(メタデータ) (2025-10-13T13:29:20Z) - GOGS: High-Fidelity Geometry and Relighting for Glossy Objects via Gaussian Surfels [0.9392167468538465]
RGB画像からの光沢のある物体の逆レンダリングは、本質的には固有の曖昧さによって制限されている。
2次元ガウス波をベースとした新しい2段階フレームワークGOGSを提案する。
我々は、新しい照明下での幾何再構成、物質分離、光リアルリライティングにおける最先端性能を実証する。
論文 参考訳(メタデータ) (2025-08-20T09:35:40Z) - Generalizable and Relightable Gaussian Splatting for Human Novel View Synthesis [49.67420486373202]
GRGSは、多彩な照明条件下での高忠実なヒューマン・ノベル・ビュー・シンセサイザーのための一般的な3Dガウスのフレームワークである。
我々は, 精密深度および表面の正常度を予測するために, 合成依存データに基づいて学習した照明対応幾何微細化(LGR)モジュールを提案する。
論文 参考訳(メタデータ) (2025-05-27T17:59:47Z) - LL-Gaussian: Low-Light Scene Reconstruction and Enhancement via Gaussian Splatting for Novel View Synthesis [17.470869402542533]
低照度シーンにおける新しいビュー合成(NVS)は、劣化した入力のために重要な課題である。
低照度sRGB画像からの3次元再構成と拡張のための新しいフレームワークであるLL-Gaussianを提案する。
最先端のNeRFベースの手法と比較して、LL-Gaussianは最大2000倍高速な推論を実現し、トレーニング時間を2%に短縮する。
論文 参考訳(メタデータ) (2025-04-14T15:39:31Z) - GlossGau: Efficient Inverse Rendering for Glossy Surface with Anisotropic Spherical Gaussian [4.5442067197725]
GlossGauは、バニラ3D-GSに匹敵するトレーニングとレンダリング速度を維持しながら、光沢のある表面でシーンを再構築する効率的な逆レンダリングフレームワークである。
実験によりGrossGauは、光沢のある表面を持つデータセット上で、競争力や優れた再構築を実現することが示された。
論文 参考訳(メタデータ) (2025-02-19T22:20:57Z) - DehazeGS: Seeing Through Fog with 3D Gaussian Splatting [17.119969983512533]
DehazeGSは,霧のない背景をメディアから分解・レンダリングできる手法である。
合成と実世界の霧のデータセットの実験は、DehazeGSが最先端のパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2025-01-07T09:47:46Z) - IRGS: Inter-Reflective Gaussian Splatting with 2D Gaussian Ray Tracing [3.147103287687791]
逆レンダリングのための反射型ガウススプラッティング(IRGS)を導入する。
本研究では, 簡易化を伴わず, 入射放射率を計算し, フルレンダリング式を適用した。
さらに、最適化されたシーンをリライトする際、入射光の間接放射率を問い合わせる新しい手法を導入する。
論文 参考訳(メタデータ) (2024-12-20T13:10:43Z) - GUS-IR: Gaussian Splatting with Unified Shading for Inverse Rendering [83.69136534797686]
GUS-IRは、粗く光沢のある表面を特徴とする複雑なシーンの逆レンダリング問題に対処するために設計された新しいフレームワークである。
本稿では、逆レンダリング、フォワードシェーディング、遅延シェーディングに広く使われている2つの顕著なシェーディング技術を分析し、比較することから始める。
両手法の利点を組み合わせた統合シェーディングソリューションを提案する。
論文 参考訳(メタデータ) (2024-11-12T01:51:05Z) - DeferredGS: Decoupled and Editable Gaussian Splatting with Deferred Shading [50.331929164207324]
我々は,遅延シェーディングを用いたガウススプレイティング表現のデカップリングと編集を行うDedeerredGSを紹介する。
定性的かつ定量的な実験は、新しいビューおよび編集タスクにおけるDederredGSの優れた性能を示す。
論文 参考訳(メタデータ) (2024-04-15T01:58:54Z) - 2D Gaussian Splatting for Geometrically Accurate Radiance Fields [50.056790168812114]
3D Gaussian Splatting (3DGS)は近年,高画質の新規ビュー合成と高速レンダリングを実現し,放射界再構成に革命をもたらした。
多視点画像から幾何学的精度の高い放射場をモデル化・再構成するための新しいアプローチである2DGS(2D Gaussian Splatting)を提案する。
競合する外観品質、高速トレーニング速度、リアルタイムレンダリングを維持しつつ、ノイズフリーかつ詳細な幾何学的再構成を可能にする。
論文 参考訳(メタデータ) (2024-03-26T17:21:24Z) - GS-IR: 3D Gaussian Splatting for Inverse Rendering [71.14234327414086]
3次元ガウス散乱(GS)に基づく新しい逆レンダリング手法GS-IRを提案する。
我々は、未知の照明条件下で撮影された多視点画像からシーン形状、表面物質、環境照明を推定するために、新しいビュー合成のための最高のパフォーマンス表現であるGSを拡張した。
フレキシブルかつ表現力のあるGS表現は、高速かつコンパクトな幾何再構成、フォトリアリスティックな新規ビュー合成、有効物理ベースレンダリングを実現する。
論文 参考訳(メタデータ) (2023-11-26T02:35:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。