論文の概要: LiDAR-RT: Gaussian-based Ray Tracing for Dynamic LiDAR Re-simulation
- arxiv url: http://arxiv.org/abs/2412.15199v1
- Date: Thu, 19 Dec 2024 18:58:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-20 13:32:22.986398
- Title: LiDAR-RT: Gaussian-based Ray Tracing for Dynamic LiDAR Re-simulation
- Title(参考訳): LiDAR-RT:動的LiDAR再シミュレーションのためのガウスベースのレイトレーシング
- Authors: Chenxu Zhou, Lvchang Fu, Sida Peng, Yunzhi Yan, Zhanhua Zhang, Yong Chen, Jiazhi Xia, Xiaowei Zhou,
- Abstract要約: LiDAR-RTは、リアルタイムで物理的に正確なLiDARの再シミュレーションをサポートする新しいフレームワークである。
私たちの主な貢献は、効率的で効果的なレンダリングパイプラインの開発です。
我々のフレームワークは、フレキシブルなシーン編集操作と様々なセンサー構成でリアルなレンダリングをサポートしています。
- 参考スコア(独自算出の注目度): 31.79143254487969
- License:
- Abstract: This paper targets the challenge of real-time LiDAR re-simulation in dynamic driving scenarios. Recent approaches utilize neural radiance fields combined with the physical modeling of LiDAR sensors to achieve high-fidelity re-simulation results. Unfortunately, these methods face limitations due to high computational demands in large-scale scenes and cannot perform real-time LiDAR rendering. To overcome these constraints, we propose LiDAR-RT, a novel framework that supports real-time, physically accurate LiDAR re-simulation for driving scenes. Our primary contribution is the development of an efficient and effective rendering pipeline, which integrates Gaussian primitives and hardware-accelerated ray tracing technology. Specifically, we model the physical properties of LiDAR sensors using Gaussian primitives with learnable parameters and incorporate scene graphs to handle scene dynamics. Building upon this scene representation, our framework first constructs a bounding volume hierarchy (BVH), then casts rays for each pixel and generates novel LiDAR views through a differentiable rendering algorithm. Importantly, our framework supports realistic rendering with flexible scene editing operations and various sensor configurations. Extensive experiments across multiple public benchmarks demonstrate that our method outperforms state-of-the-art methods in terms of rendering quality and efficiency. Our project page is at https://zju3dv.github.io/lidar-rt.
- Abstract(参考訳): 本稿では,動的運転シナリオにおけるリアルタイムLiDAR再シミュレーションの課題を対象としている。
近年のアプローチでは、高忠実度再シミュレーション結果を得るために、ニューラルネットワークとLiDARセンサの物理モデリングを組み合わせる。
残念ながら、これらの手法は大規模シーンにおける高い計算要求のために制限に直面しており、リアルタイムのLiDARレンダリングは実行できない。
これらの制約を克服するために,実時間で物理的に正確なLiDAR再シミュレーションをサポートする新しいフレームワークLiDAR-RTを提案する。
我々の主な貢献は、ガウスのプリミティブとハードウェアアクセラレーションによるレイトレーシング技術を統合した、効率的で効率的なレンダリングパイプラインの開発である。
具体的には、学習可能なパラメータを持つガウスプリミティブを用いてLiDARセンサの物理的特性をモデル化し、シーンダイナミクスを扱うためにシーングラフを組み込む。
このシーンの表現に基づいて、我々のフレームワークはまず境界体積階層(BVH)を構築し、次に各ピクセルの光線をキャストし、微分可能なレンダリングアルゴリズムにより新しいLiDARビューを生成する。
重要なことは、フレキシブルなシーン編集操作と様々なセンサー構成でリアルなレンダリングをサポートしています。
複数の公開ベンチマークでの大規模な実験により、我々の手法はレンダリング品質と効率の点で最先端の手法よりも優れていることが示された。
私たちのプロジェクトページはhttps://zju3dv.github.io/lidar-rt.comです。
関連論文リスト
- GS-LiDAR: Generating Realistic LiDAR Point Clouds with Panoramic Gaussian Splatting [3.376357029373187]
GS-LiDARは、パノラマガウススプラッティングで現実的なLiDAR点雲を生成するための新しいフレームワークである。
我々は,パノラマLiDAR監督によって導かれる光線スプラット交差を明示する新しいパノラマレンダリング手法を提案する。
論文 参考訳(メタデータ) (2025-01-22T11:21:20Z) - LiHi-GS: LiDAR-Supervised Gaussian Splatting for Highway Driving Scene Reconstruction [6.428928591765432]
Gaussian Splatting (GS)は、シーンの3Dガウス表現を明示してリアルタイムレンダリングを容易にする。
GSは暗黙のニューラルレイディアンスフィールド(NeRF)よりも高速な処理と直感的なシーン編集を提供する
動的シーン合成と編集のための新しいGS法を提案し,LiDARの監督とLiDARレンダリングのサポートを通じてシーン再構成を改善した。
論文 参考訳(メタデータ) (2024-12-19T22:59:55Z) - LiDAR-GS:Real-time LiDAR Re-Simulation using Gaussian Splatting [50.808933338389686]
LiDARシミュレーションは、自動運転におけるクローズドループシミュレーションにおいて重要な役割を果たす。
都市景観におけるLiDARセンサスキャンをリアルタイムに再現するために,最初のLiDARガウス法であるLiDAR-GSを提案する。
我々の手法は、深度、強度、レイドロップチャンネルを同時に再現することに成功し、公開可能な大規模シーンデータセットにおけるフレームレートと品質の両方のレンダリング結果を達成する。
論文 参考訳(メタデータ) (2024-10-07T15:07:56Z) - DeferredGS: Decoupled and Editable Gaussian Splatting with Deferred Shading [50.331929164207324]
我々は,遅延シェーディングを用いたガウススプレイティング表現のデカップリングと編集を行うDedeerredGSを紹介する。
定性的かつ定量的な実験は、新しいビューおよび編集タスクにおけるDederredGSの優れた性能を示す。
論文 参考訳(メタデータ) (2024-04-15T01:58:54Z) - Neural LiDAR Fields for Novel View Synthesis [80.45307792404685]
本稿では,LiDAR計測からニューラルネットワークシーンの表現を最適化する手法であるLiDAR(NFL)について述べる。
NFLは、ニューラルネットワークのレンダリングパワーと、LiDARセンシングプロセスの詳細な物理的動機付けモデルを組み合わせる。
合成されたビューの改良されたリアリズムは、ドメインギャップを実際のスキャンに狭め、より良い登録とセマンティックセグメンテーション性能に変換することを示す。
論文 参考訳(メタデータ) (2023-05-02T17:55:38Z) - LiDAR-NeRF: Novel LiDAR View Synthesis via Neural Radiance Fields [112.62936571539232]
本稿では,LiDARセンサのための新しいビュー合成手法を提案する。
スタイルトランスファーニューラルネットワークを用いた従来のモデルベースLiDARシミュレータは、新しいビューのレンダリングに応用できる。
ニューラル放射場(NeRF)を用いて幾何学と3D点の属性の連成学習を容易にする。
論文 参考訳(メタデータ) (2023-04-20T15:44:37Z) - Learning to Simulate Realistic LiDARs [66.7519667383175]
リアルLiDARセンサのデータ駆動シミュレーションのためのパイプラインを提案する。
本モデルでは, 透明表面上の落下点などの現実的な効果を符号化できることが示される。
我々は2つの異なるLiDARセンサのモデルを学習し、それに従ってシミュレーションされたLiDARデータを改善する。
論文 参考訳(メタデータ) (2022-09-22T13:12:54Z) - DIB-R++: Learning to Predict Lighting and Material with a Hybrid
Differentiable Renderer [78.91753256634453]
そこで本研究では,単体画像から固有物体特性を推定する難題について,微分可能量を用いて検討する。
そこで本研究では、スペクトル化とレイトレーシングを組み合わせることで、これらの効果をサポートするハイブリッド微分可能なDIBR++を提案する。
より高度な物理ベースの微分可能値と比較すると、DIBR++はコンパクトで表現力のあるモデルであるため、高い性能を持つ。
論文 参考訳(メタデータ) (2021-10-30T01:59:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。