論文の概要: R3GW: Relightable 3D Gaussians for Outdoor Scenes in the Wild
- arxiv url: http://arxiv.org/abs/2603.02801v1
- Date: Tue, 03 Mar 2026 09:40:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 21:38:10.738827
- Title: R3GW: Relightable 3D Gaussians for Outdoor Scenes in the Wild
- Title(参考訳): R3GW:野生の屋外シーンに使える3Dガウシアン
- Authors: Margherita Lea Corona, Wieland Morgenstern, Peter Eisert, Anna Hilsmann,
- Abstract要約: 3D Gaussian Splatting (3DGS) は静的シーンの3D再構成と新しいビュー合成の先駆的手法として確立されている。
本稿では,野生で捉えた屋外シーンの3DGS表現を学習する新しい手法R3GWを提案する。
- 参考スコア(独自算出の注目度): 23.68389428693905
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: 3D Gaussian Splatting (3DGS) has established itself as a leading technique for 3D reconstruction and novel view synthesis of static scenes, achieving outstanding rendering quality and fast training. However, the method does not explicitly model the scene illumination, making it unsuitable for relighting tasks. Furthermore, 3DGS struggles to reconstruct scenes captured in the wild by unconstrained photo collections featuring changing lighting conditions. In this paper, we present R3GW, a novel method that learns a relightable 3DGS representation of an outdoor scene captured in the wild. Our approach separates the scene into a relightable foreground and a non-reflective background (the sky), using two distinct sets of Gaussians. R3GW models view-dependent lighting effects in the foreground reflections by combining Physically Based Rendering with the 3DGS scene representation in a varying illumination setting. We evaluate our method quantitatively and qualitatively on the NeRF-OSR dataset, offering state-of-the-art performance and enhanced support for physically-based relighting of unconstrained scenes. Our method synthesizes photorealistic novel views under arbitrary illumination conditions. Additionally, our representation of the sky mitigates depth reconstruction artifacts, improving rendering quality at the sky-foreground boundary
- Abstract(参考訳): 3D Gaussian Splatting (3DGS)は静的シーンの3D再構成と新しいビュー合成の先駆的手法として確立され、優れたレンダリング品質と高速トレーニングを実現している。
しかし、この手法はシーン照明を明示的にモデル化していないため、タスクのリライトには適さない。
さらに、3DGSは、照明条件の変化を特徴とする制約のない写真コレクションによって、野生で撮影されたシーンの再構築に苦労している。
本稿では,野生で撮影された屋外シーンの3DGS表現を学習する新しい手法であるR3GWを提案する。
我々のアプローチでは、シーンを2つの異なるガウス的集合を用いて、照らしやすい前景と非反射的背景(空)に分離する。
R3GWは、物理ベースレンダリングと3DGSシーン表現を様々な照明環境で組み合わせることで、前景反射におけるビュー依存照明効果をモデル化する。
提案手法をNeRF-OSRデータセット上で定量的に定性的に評価し,最先端性能と制約のないシーンの物理的リライティングのサポートを強化した。
本手法は,任意の照明条件下での光リアリスティックなノベルビューを合成する。
さらに、天空の表現は、深度復元アーティファクトを緩和し、地上境界におけるレンダリング品質を向上させる。
関連論文リスト
- Lumos3D: A Single-Forward Framework for Low-Light 3D Scene Restoration [10.184395697154448]
我々は3次元低照度シーン復元のためのポーズレスフレームワークであるLumos3Dを紹介する。
幾何学的な基底を持つバックボーン上に構築されたLumos3Dは、通常の光の3Dガウス表現を再構成する。
実世界のデータセットの実験では、Lumos3Dは高忠実度低光度3Dシーンの復元を実現する。
論文 参考訳(メタデータ) (2025-11-12T23:42:03Z) - ComGS: Efficient 3D Object-Scene Composition via Surface Octahedral Probes [46.83857963152283]
Gaussian Splatting (GS)は没入型レンダリングを可能にするが、現実的な3Dオブジェクトシーンの合成は難しいままである。
我々は,新しい3Dオブジェクトシーン合成フレームワークであるComGSを提案する。
提案手法は,28FPS程度の高画質リアルタイムレンダリングを実現し,鮮明な影で視覚的に調和し,編集に36秒しか必要としない。
論文 参考訳(メタデータ) (2025-10-09T03:10:41Z) - Visibility-Uncertainty-guided 3D Gaussian Inpainting via Scene Conceptional Learning [63.94919846010485]
3DGI)は、複数の入力ビューから補完的な視覚的・意味的手がかりを効果的に活用することが困難である。
本稿では,異なる入力ビュー間での3Dポイントの視認性不確実性を計測し,それらを用いて3DGIを誘導する手法を提案する。
ViSibility-uncerTainty-guided 3DGIとシーンコンセプトAl学習を統合し,新しい3DGIフレームワークであるVISTAを構築した。
論文 参考訳(メタデータ) (2025-04-23T06:21:11Z) - D3DR: Lighting-Aware Object Insertion in Gaussian Splatting [48.80431740983095]
D3DRと呼ばれる3DGS並列化オブジェクトを3DGSシーンに挿入する手法を提案する。
我々は、現実世界のデータに基づいて訓練された拡散モデルの進歩を活用し、正しいシーンライティングを暗黙的に理解する。
提案手法を既存手法と比較することにより,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2025-03-09T19:48:00Z) - LumiGauss: Relightable Gaussian Splatting in the Wild [15.11759492990967]
本稿では,LumiGaussについて紹介する。LumiGaussは2次元ガウススプラッティングによるシーンの3次元再構成と環境照明を実現する技術である。
提案手法は高品質なシーン再構成を実現し,新しい環境マップ下でのリアルな照明合成を実現する。
提案手法をNeRF-OSRデータセット上で検証し,ベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-08-06T23:41:57Z) - Neural Fields meet Explicit Geometric Representation for Inverse
Rendering of Urban Scenes [62.769186261245416]
本稿では,大都市におけるシーン形状,空間変化材料,HDR照明を,任意の深さで描画したRGB画像の集合から共同で再構成できる新しい逆レンダリングフレームワークを提案する。
具体的には、第1の光線を考慮に入れ、第2の光線をモデリングするために、明示的なメッシュ(基礎となるニューラルネットワークから再構成)を用いて、キャストシャドウのような高次照明効果を発生させる。
論文 参考訳(メタデータ) (2023-04-06T17:51:54Z) - PhotoScene: Photorealistic Material and Lighting Transfer for Indoor
Scenes [84.66946637534089]
PhotoSceneは、シーンの入力画像を取得し、高品質な素材と同様の照明を備えたフォトリアリスティックデジタルツインを構築するフレームワークである。
プロシージャ素材グラフを用いてシーン素材をモデル化し、そのようなグラフはフォトリアリスティックおよび解像度非依存の材料を表す。
ScanNet, SUN RGB-D, ストック写真からのオブジェクトとレイアウトの再構築について検討し, 高品質で完全に再現可能な3Dシーンを再現できることを実証した。
論文 参考訳(メタデータ) (2022-07-02T06:52:44Z) - Physically-Based Editing of Indoor Scene Lighting from a Single Image [106.60252793395104]
本研究では,1つの画像から複雑な室内照明を推定深度と光源セグメンテーションマスクで編集する手法を提案する。
1)シーン反射率とパラメトリックな3D照明を推定する全体的シーン再構成法,2)予測からシーンを再レンダリングするニューラルレンダリングフレームワーク,である。
論文 参考訳(メタデータ) (2022-05-19T06:44:37Z) - Learning Indoor Inverse Rendering with 3D Spatially-Varying Lighting [149.1673041605155]
1枚の画像からアルベド, 正常, 深さ, 3次元の空間的変化を共同で推定する問題に対処する。
既存のほとんどの方法は、シーンの3D特性を無視して、画像から画像への変換としてタスクを定式化する。
本研究では3次元空間変動照明を定式化する統合学習ベースの逆フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-13T15:29:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。