論文の概要: Nighttime Autonomous Driving Scene Reconstruction with Physically-Based Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2602.13549v1
- Date: Sat, 14 Feb 2026 01:49:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 14:17:28.140069
- Title: Nighttime Autonomous Driving Scene Reconstruction with Physically-Based Gaussian Splatting
- Title(参考訳): 物理的手法による夜間自律走行シーンの再構成
- Authors: Tae-Kyeong Kim, Xingxin Chen, Guile Wu, Chengjie Huang, Dongfeng Bai, Bingbing Liu,
- Abstract要約: 本稿では3DGSに物理ベースレンダリングを取り入れた新しい手法を提案する。
本手法は,実時間レンダリングを維持しつつ,屋外の夜間運転シーンの再現性を向上させる。
- 参考スコア(独自算出の注目度): 19.61590675458685
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper focuses on scene reconstruction under nighttime conditions in autonomous driving simulation. Recent methods based on Neural Radiance Fields (NeRFs) and 3D Gaussian Splatting (3DGS) have achieved photorealistic modeling in autonomous driving scene reconstruction, but they primarily focus on normal-light conditions. Low-light driving scenes are more challenging to model due to their complex lighting and appearance conditions, which often causes performance degradation of existing methods. To address this problem, this work presents a novel approach that integrates physically based rendering into 3DGS to enhance nighttime scene reconstruction for autonomous driving. Specifically, our approach integrates physically based rendering into composite scene Gaussian representations and jointly optimizes Bidirectional Reflectance Distribution Function (BRDF) based material properties. We explicitly model diffuse components through a global illumination module and specular components by anisotropic spherical Gaussians. As a result, our approach improves reconstruction quality for outdoor nighttime driving scenes, while maintaining real-time rendering. Extensive experiments across diverse nighttime scenarios on two real-world autonomous driving datasets, including nuScenes and Waymo, demonstrate that our approach outperforms the state-of-the-art methods both quantitatively and qualitatively.
- Abstract(参考訳): 本稿では,自律走行シミュレーションにおける夜間環境下でのシーン再構築に焦点を当てた。
ニューラルレイディアンス場(NeRF)と3次元ガウススプラッティング(3DGS)に基づく最近の手法は、自律走行シーンの再構築において光リアル性モデリングを実現しているが、それらは主に通常の光環境に焦点を当てている。
低照度運転シーンは、複雑な照明と外観条件のためにモデル化が困難であり、しばしば既存の手法の性能劣化を引き起こす。
この問題に対処するため,本研究では3DGSに物理ベースレンダリングを組み込むことにより,自律走行のための夜間シーン再構築を向上する手法を提案する。
具体的には、物理的なレンダリングを合成シーンガウス表現に統合し、双方向反射率分布関数(BRDF)に基づく材料特性を共同最適化する。
我々は、大域照明モジュールと異方性球面ガウスによる特異成分を通して拡散成分を明示的にモデル化する。
その結果,実時間レンダリングを維持しながら,屋外の夜間運転シーンの再現性を向上させることができた。
nuScenesやWaymoを含む2つの実世界の自律運転データセットにおける夜間シナリオの多種多様な実験は、我々のアプローチが最先端の手法を定量的にも質的にも上回っていることを実証している。
関連論文リスト
- DrivingGaussian++: Towards Realistic Reconstruction and Editable Simulation for Surrounding Dynamic Driving Scenes [49.23098808629567]
DrivingGaussian++は、自律運転シーンをリアルに再構成し、制御可能な編集を行うための効率的なフレームワークである。
テクスチャ修正、天気予報、オブジェクト操作など、ダイナミックな運転シーンのためのトレーニング不要のコントロール可能な編集をサポートする。
提案手法は,動的物体の運動軌跡を自動的に生成し,最適化過程における現実性を高める。
論文 参考訳(メタデータ) (2025-08-28T16:22:54Z) - ArmGS: Composite Gaussian Appearance Refinement for Modeling Dynamic Urban Environments [22.371417505012566]
この研究は、自律運転シミュレーションのための動的都市環境のモデリングに焦点を当てている。
我々は,多粒性外観改善を用いた複合駆動ガウススプラッティングを利用するArmGSという新しい手法を提案する。
これは、フレームとカメラの視点のグローバルなシーンの外観の変化をモデル化するだけでなく、背景と物体の局所的なきめ細かい光リアルな変化もモデル化する。
論文 参考訳(メタデータ) (2025-07-05T03:54:40Z) - Hybrid Rendering for Multimodal Autonomous Driving: Merging Neural and Physics-Based Simulation [1.0027737736304287]
ニューラル再構成の強みと物理ベースのレンダリングを組み合わせたハイブリッドアプローチを導入する。
提案手法は,特に道路面やレーンマーキングにおいて,新規なビュー合成品質を著しく向上させる。
ノイズの多いLiDAR点雲からの奥行き正則化により、元の画像上でカスタマイズされたNeRFモデルをトレーニングすることで、これを実現する。
論文 参考訳(メタデータ) (2025-03-12T15:18:50Z) - EnvGS: Modeling View-Dependent Appearance with Environment Gaussian [78.74634059559891]
EnvGSは、環境の反射を捉えるための明示的な3D表現として、ガウスプリミティブのセットを利用する新しいアプローチである。
これらの環境を効率的にレンダリングするために,高速レンダリングにGPUのRTコアを利用するレイトレーシングベースのリフレクションを開発した。
複数の実世界および合成データセットから得られた結果は,本手法がより詳細な反射を生成することを示す。
論文 参考訳(メタデータ) (2024-12-19T18:59:57Z) - AutoSplat: Constrained Gaussian Splatting for Autonomous Driving Scene Reconstruction [17.600027937450342]
AutoSplatは、自動走行シーンの高度に現実的な再構築を実現するために、ガウシアンスプラッティングを使用したフレームワークである。
本手法は,車線変更を含む課題シナリオの多視点一貫したシミュレーションを可能にする。
論文 参考訳(メタデータ) (2024-07-02T18:36:50Z) - LidaRF: Delving into Lidar for Neural Radiance Field on Street Scenes [73.65115834242866]
光リアリスティックシミュレーションは、自律運転のようなアプリケーションにおいて重要な役割を果たす。
しかし, コリニアカメラの動作やスペーサーのサンプリングにより, 街路景観の再現性は低下する。
街路面のNeRF品質を改善するために,Lidarデータのより優れた利用を可能にするいくつかの知見を提案する。
論文 参考訳(メタデータ) (2024-05-01T23:07:12Z) - Street Gaussians: Modeling Dynamic Urban Scenes with Gaussian Splatting [32.59889755381453]
近年の手法では、走行中の車両のポーズをアニメーションに取り入れてNeRFを拡張し、ダイナミックな街路シーンのリアルな視認を可能にしている。
この制限に対処する新たな明示的なシーン表現であるStreet Gaussiansを紹介します。
提案手法は,全データセットで常に最先端の手法より優れる。
論文 参考訳(メタデータ) (2024-01-02T18:59:55Z) - DrivingGaussian: Composite Gaussian Splatting for Surrounding Dynamic Autonomous Driving Scenes [57.12439406121721]
我々は動的自律走行シーンを囲む効率的かつ効果的なフレームワークであるDrivingGaussianを提案する。
動くオブジェクトを持つ複雑なシーンでは、まずシーン全体の静的な背景を逐次、段階的にモデル化します。
次に、複合動的ガウスグラフを利用して、複数の移動物体を処理する。
我々はさらに、ガウススプラッティングに先立ってLiDARを使用して、より詳細でシーンを再構築し、パノラマ一貫性を維持する。
論文 参考訳(メタデータ) (2023-12-13T06:30:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。