論文の概要: LiDAR-GS:Real-time LiDAR Re-Simulation using Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2410.05111v2
- Date: Fri, 14 Mar 2025 09:52:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-17 13:04:04.238062
- Title: LiDAR-GS:Real-time LiDAR Re-Simulation using Gaussian Splatting
- Title(参考訳): LiDAR-GS:Gaussian Splattingを用いたリアルタイムLiDAR再シミュレーション
- Authors: Qifeng Chen, Sheng Yang, Sicong Du, Tao Tang, Peng Chen, Yuchi Huo,
- Abstract要約: 都市景観におけるLiDARスキャンをリアルタイムかつ高忠実に再現するLiDAR-GSを提案する。
この手法は,公開可能な大規模シーンデータセットのレンダリングフレームレートと品質の両面において,最先端の結果を達成する。
- 参考スコア(独自算出の注目度): 50.808933338389686
- License:
- Abstract: We present LiDAR-GS, a Gaussian Splatting (GS) method for real-time, high-fidelity re-simulation of LiDAR scans in public urban road scenes. Recent GS methods proposed for cameras have achieved significant advancements in real-time rendering beyond Neural Radiance Fields (NeRF). However, applying GS representation to LiDAR, an active 3D sensor type, poses several challenges that must be addressed to preserve high accuracy and unique characteristics. Specifically, LiDAR-GS designs a differentiable laser beam splatting, using range-view representation for precise surface splatting by projecting lasers onto micro cross-sections, effectively eliminating artifacts associated with local affine approximations. Furthermore, LiDAR-GS leverages Neural Gaussian Representation, which further integrate view-dependent clues, to represent key LiDAR properties that are influenced by the incident direction and external factors. Combining these practices with some essential adaptations, e.g., dynamic instances decomposition, LiDAR-GS succeeds in simultaneously re-simulating depth, intensity, and ray-drop channels, achieving state-of-the-art results in both rendering frame rate and quality on publically available large scene datasets when compared with the methods using explicit mesh or implicit NeRF. Our source code is publicly available at https://www.github.com/cqf7419/LiDAR-GS.
- Abstract(参考訳): 都市景観におけるLiDARスキャンをリアルタイムかつ高忠実に再現するための,ガウススティング(GS)手法LiDAR-GSを提案する。
近年、カメラに提案されているGS法は、NeRF(Neural Radiance Fields)を超えるリアルタイムレンダリングにおいて大きな進歩を遂げている。
しかし、アクティブな3DセンサータイプであるLiDARにGS表現を適用すると、高い精度とユニークな特性を維持するために対処しなければならないいくつかの課題が生じる。
特に、LiDAR-GSは、レーザーをマイクロ断面に投影することで、精密表面スプラッティングのレンジビュー表現を用いて、微分可能なレーザービームスプラッティングを設計し、局所アフィン近似に関連するアーティファクトを効果的に除去した。
さらに、LiDAR-GSはニューラルガウス表現(Neural Gaussian Representation)を活用し、ビュー依存の手がかりを統合し、インシデント方向や外部要因に影響される重要なLiDAR特性を表現する。
これらのプラクティスと、動的インスタンスの分解、LiDAR-GSといったいくつかの重要な適応を組み合わせることで、奥行き、強度、レイドロップチャンネルを同時に再現し、明示的なメッシュや暗黙的なNeRFを使った手法と比較して、公開可能な大きなシーンデータセットのフレームレートと品質の両方の最先端の結果を達成することができます。
ソースコードはhttps://www.github.com/cqf7419/LiDAR-GSで公開されています。
関連論文リスト
- GS-LiDAR: Generating Realistic LiDAR Point Clouds with Panoramic Gaussian Splatting [3.376357029373187]
GS-LiDARは、パノラマガウススプラッティングで現実的なLiDAR点雲を生成するための新しいフレームワークである。
我々は,パノラマLiDAR監督によって導かれる光線スプラット交差を明示する新しいパノラマレンダリング手法を提案する。
論文 参考訳(メタデータ) (2025-01-22T11:21:20Z) - LiDAR-RT: Gaussian-based Ray Tracing for Dynamic LiDAR Re-simulation [31.79143254487969]
LiDAR-RTは、リアルタイムで物理的に正確なLiDARの再シミュレーションをサポートする新しいフレームワークである。
私たちの主な貢献は、効率的で効果的なレンダリングパイプラインの開発です。
我々のフレームワークは、フレキシブルなシーン編集操作と様々なセンサー構成でリアルなレンダリングをサポートしています。
論文 参考訳(メタデータ) (2024-12-19T18:58:36Z) - Multi-Modal Data-Efficient 3D Scene Understanding for Autonomous Driving [58.16024314532443]
我々は、異なるLiDARスキャンからレーザービーム操作を統合するフレームワークであるLaserMix++を導入し、データ効率の学習を支援するためにLiDAR-カメラ対応を組み込んだ。
結果は、LaserMix++が完全に教師付き代替よりも優れており、5倍のアノテーションで同等の精度を実現していることを示している。
この大幅な進歩は、LiDARベースの3Dシーン理解システムにおける広範囲なラベル付きデータへの依存を減らすための半教師付きアプローチの可能性を示している。
論文 参考訳(メタデータ) (2024-05-08T17:59:53Z) - Traj-LO: In Defense of LiDAR-Only Odometry Using an Effective
Continuous-Time Trajectory [20.452961476175812]
本文では,LiDARのみのオドメトリーを連続的視点で検討する。
提案するTraj-LOアプローチは,LiDARの空間的・時間的一貫した動きを回復しようとする。
私たちの実装はGitHubでオープンソース化されています。
論文 参考訳(メタデータ) (2023-09-25T03:05:06Z) - Neural LiDAR Fields for Novel View Synthesis [80.45307792404685]
本稿では,LiDAR計測からニューラルネットワークシーンの表現を最適化する手法であるLiDAR(NFL)について述べる。
NFLは、ニューラルネットワークのレンダリングパワーと、LiDARセンシングプロセスの詳細な物理的動機付けモデルを組み合わせる。
合成されたビューの改良されたリアリズムは、ドメインギャップを実際のスキャンに狭め、より良い登録とセマンティックセグメンテーション性能に変換することを示す。
論文 参考訳(メタデータ) (2023-05-02T17:55:38Z) - LiDAR-NeRF: Novel LiDAR View Synthesis via Neural Radiance Fields [112.62936571539232]
本稿では,LiDARセンサのための新しいビュー合成手法を提案する。
スタイルトランスファーニューラルネットワークを用いた従来のモデルベースLiDARシミュレータは、新しいビューのレンダリングに応用できる。
ニューラル放射場(NeRF)を用いて幾何学と3D点の属性の連成学習を容易にする。
論文 参考訳(メタデータ) (2023-04-20T15:44:37Z) - Learning to Simulate Realistic LiDARs [66.7519667383175]
リアルLiDARセンサのデータ駆動シミュレーションのためのパイプラインを提案する。
本モデルでは, 透明表面上の落下点などの現実的な効果を符号化できることが示される。
我々は2つの異なるLiDARセンサのモデルを学習し、それに従ってシミュレーションされたLiDARデータを改善する。
論文 参考訳(メタデータ) (2022-09-22T13:12:54Z) - LiDARCap: Long-range Marker-less 3D Human Motion Capture with LiDAR
Point Clouds [58.402752909624716]
既存のモーションキャプチャデータセットはほとんどが短距離であり、まだ長距離アプリケーションのニーズに合わない。
我々は,この制限を克服するために,LiDARがより長い範囲で捉えた新しい人間のモーションキャプチャーデータセットLiDARHuman26Mを提案する。
我々のデータセットには、IMUシステムによって取得された人間の動きと同期RGB画像も含まれている。
論文 参考訳(メタデータ) (2022-03-28T12:52:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。