論文の概要: EAG-PT: Emission-Aware Gaussians and Path Tracing for Indoor Scene Reconstruction and Editing
- arxiv url: http://arxiv.org/abs/2601.23065v1
- Date: Fri, 30 Jan 2026 15:16:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.522691
- Title: EAG-PT: Emission-Aware Gaussians and Path Tracing for Indoor Scene Reconstruction and Editing
- Title(参考訳): EAG-PT : エミッション・アウェア・ガウシアンと室内環境復元・編集のための経路追跡
- Authors: Xijie Yang, Mulin Yu, Changjian Jiang, Kerui Ren, Tao Lu, Jiangmiao Pang, Dahua Lin, Bo Dai, Linning Xu,
- Abstract要約: 本研究では,2次元ガウス表現を統一した物理的光輸送を目的としたElectron-Aware Gaussian and Path Tracing (EAG-PT)を提案する。
本設計は,(1)再構成メッシュを回避する統一的なシーン表現と移動に適した幾何プロキシとして2次元ガウシアンを用い,(2)さらなるシーン編集のために再構成中の許容成分と非許容成分を明示的に分離し,(3)効率的なシングルバウンス最適化と高品質なマルチバウンスパストレースを用いて最終レンダリングから再構成を分離する,という3つのコアに基づいている。
- 参考スコア(独自算出の注目度): 63.64931392651423
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent reconstruction methods based on radiance field such as NeRF and 3DGS reproduce indoor scenes with high visual fidelity, but break down under scene editing due to baked illumination and the lack of explicit light transport. In contrast, physically based inverse rendering relies on mesh representations and path tracing, which enforce correct light transport but place strong requirements on geometric fidelity, becoming a practical bottleneck for real indoor scenes. In this work, we propose Emission-Aware Gaussians and Path Tracing (EAG-PT), aiming for physically based light transport with a unified 2D Gaussian representation. Our design is based on three cores: (1) using 2D Gaussians as a unified scene representation and transport-friendly geometry proxy that avoids reconstructed mesh, (2) explicitly separating emissive and non-emissive components during reconstruction for further scene editing, and (3) decoupling reconstruction from final rendering by using efficient single-bounce optimization and high-quality multi-bounce path tracing after scene editing. Experiments on synthetic and real indoor scenes show that EAG-PT produces more natural and physically consistent renders after editing than radiant scene reconstructions, while preserving finer geometric detail and avoiding mesh-induced artifacts compared to mesh-based inverse path tracing. These results suggest promising directions for future use in interior design, XR content creation, and embodied AI.
- Abstract(参考訳): 近年,NeRF や 3DGS などの放射場に基づく再現法は,高視力で室内シーンを再現するが,焼成照明と明暗光輸送の欠如により,シーン編集により分解する。
対照的に、物理的にベースとした逆レンダリングはメッシュ表現と経路追跡に依存しており、正しい光輸送を強制するが、幾何学的忠実さに強い要求を課し、実際の屋内シーンの現実的なボトルネックとなる。
本研究では,2次元ガウス表現を統一した物理的光輸送を目的としたElectron-Aware Gaussian and Path Tracing (EAG-PT)を提案する。
本設計は,(1)再構成メッシュを回避する統一的なシーン表現と移動に適した幾何プロキシとして2次元ガウシアンを用い,(2)さらなるシーン編集のために再構成中の許容成分と非許容成分を明示的に分離し,(3)効率的なシングルバウンス最適化と高品質なマルチバウンスパストレースを用いて最終レンダリングから再構成を分離する,という3つのコアに基づいている。
合成および実際の屋内シーンの実験では、ERG-PTはラジアントシーンの再構成よりも自然で物理的に整合性のあるレンダリングを生成する一方で、細かい幾何学的詳細を保存し、メッシュベースの逆経路追跡と比較してメッシュによって引き起こされたアーティファクトを避けることが示されている。
これらの結果は、インテリアデザイン、XRコンテンツ作成、具体化AIに将来的な方向性を示唆している。
関連論文リスト
- ComGS: Efficient 3D Object-Scene Composition via Surface Octahedral Probes [46.83857963152283]
Gaussian Splatting (GS)は没入型レンダリングを可能にするが、現実的な3Dオブジェクトシーンの合成は難しいままである。
我々は,新しい3Dオブジェクトシーン合成フレームワークであるComGSを提案する。
提案手法は,28FPS程度の高画質リアルタイムレンダリングを実現し,鮮明な影で視覚的に調和し,編集に36秒しか必要としない。
論文 参考訳(メタデータ) (2025-10-09T03:10:41Z) - RAP: 3D Rasterization Augmented End-to-End Planning [104.52778241744522]
エンド・ツー・エンドの列車政策の模擬学習は、専門家によるデモンストレーションでのみ行われる。
アノテーション付きプリミティブの軽量化により、コストのかかるレンダリングを置き換える3Dラスタライゼーションを提案する。
RAPは最先端のクローズドループとロングテールロバスト性を実現し、4つの主要なベンチマークで第1位となった。
論文 参考訳(メタデータ) (2025-10-05T19:31:24Z) - GUS-IR: Gaussian Splatting with Unified Shading for Inverse Rendering [83.69136534797686]
GUS-IRは、粗く光沢のある表面を特徴とする複雑なシーンの逆レンダリング問題に対処するために設計された新しいフレームワークである。
本稿では、逆レンダリング、フォワードシェーディング、遅延シェーディングに広く使われている2つの顕著なシェーディング技術を分析し、比較することから始める。
両手法の利点を組み合わせた統合シェーディングソリューションを提案する。
論文 参考訳(メタデータ) (2024-11-12T01:51:05Z) - GI-GS: Global Illumination Decomposition on Gaussian Splatting for Inverse Rendering [6.820642721852439]
GI-GSは3次元ガウススティング(3DGS)と遅延シェーディングを利用する新しい逆レンダリングフレームワークである。
筆者らのフレームワークでは,まずGバッファを描画し,シーンの詳細な形状と材料特性を捉える。
Gバッファと以前のレンダリング結果により、ライトウェイトパストレースにより間接照明を計算することができる。
論文 参考訳(メタデータ) (2024-10-03T15:58:18Z) - DeferredGS: Decoupled and Editable Gaussian Splatting with Deferred Shading [50.331929164207324]
我々は,遅延シェーディングを用いたガウススプレイティング表現のデカップリングと編集を行うDedeerredGSを紹介する。
定性的かつ定量的な実験は、新しいビューおよび編集タスクにおけるDederredGSの優れた性能を示す。
論文 参考訳(メタデータ) (2024-04-15T01:58:54Z) - GS-IR: 3D Gaussian Splatting for Inverse Rendering [71.14234327414086]
3次元ガウス散乱(GS)に基づく新しい逆レンダリング手法GS-IRを提案する。
我々は、未知の照明条件下で撮影された多視点画像からシーン形状、表面物質、環境照明を推定するために、新しいビュー合成のための最高のパフォーマンス表現であるGSを拡張した。
フレキシブルかつ表現力のあるGS表現は、高速かつコンパクトな幾何再構成、フォトリアリスティックな新規ビュー合成、有効物理ベースレンダリングを実現する。
論文 参考訳(メタデータ) (2023-11-26T02:35:09Z) - Neural Fields meet Explicit Geometric Representation for Inverse
Rendering of Urban Scenes [62.769186261245416]
本稿では,大都市におけるシーン形状,空間変化材料,HDR照明を,任意の深さで描画したRGB画像の集合から共同で再構成できる新しい逆レンダリングフレームワークを提案する。
具体的には、第1の光線を考慮に入れ、第2の光線をモデリングするために、明示的なメッシュ(基礎となるニューラルネットワークから再構成)を用いて、キャストシャドウのような高次照明効果を発生させる。
論文 参考訳(メタデータ) (2023-04-06T17:51:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。