論文の概要: SimULi: Real-Time LiDAR and Camera Simulation with Unscented Transforms
- arxiv url: http://arxiv.org/abs/2510.12901v1
- Date: Tue, 14 Oct 2025 18:22:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.380148
- Title: SimULi: Real-Time LiDAR and Camera Simulation with Unscented Transforms
- Title(参考訳): SimULi: リアルタイムLiDARと無意味な変換によるカメラシミュレーション
- Authors: Haithem Turki, Qi Wu, Xin Kang, Janick Martinez Esturo, Shengyu Huang, Ruilong Li, Zan Gojcic, Riccardo de Lutio,
- Abstract要約: SimULiは任意のカメラモデルとLiDARデータをリアルタイムでレンダリングできる最初の方法である。
提案手法は,LiDARをサポートする複雑なカメラモデルをサポートする3DGUTを,自動タイリング戦略により拡張する。
SimULiはレイトレーシングのアプローチよりも10~20倍高速で、優先度ベースの作業よりも1.5~10倍高速である。
- 参考スコア(独自算出の注目度): 31.853574316696037
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Rigorous testing of autonomous robots, such as self-driving vehicles, is essential to ensure their safety in real-world deployments. This requires building high-fidelity simulators to test scenarios beyond those that can be safely or exhaustively collected in the real-world. Existing neural rendering methods based on NeRF and 3DGS hold promise but suffer from low rendering speeds or can only render pinhole camera models, hindering their suitability to applications that commonly require high-distortion lenses and LiDAR data. Multi-sensor simulation poses additional challenges as existing methods handle cross-sensor inconsistencies by favoring the quality of one modality at the expense of others. To overcome these limitations, we propose SimULi, the first method capable of rendering arbitrary camera models and LiDAR data in real-time. Our method extends 3DGUT, which natively supports complex camera models, with LiDAR support, via an automated tiling strategy for arbitrary spinning LiDAR models and ray-based culling. To address cross-sensor inconsistencies, we design a factorized 3D Gaussian representation and anchoring strategy that reduces mean camera and depth error by up to 40% compared to existing methods. SimULi renders 10-20x faster than ray tracing approaches and 1.5-10x faster than prior rasterization-based work (and handles a wider range of camera models). When evaluated on two widely benchmarked autonomous driving datasets, SimULi matches or exceeds the fidelity of existing state-of-the-art methods across numerous camera and LiDAR metrics.
- Abstract(参考訳): 自動運転車のような自律ロボットの厳格なテストは、実際の展開における安全性を確保するために不可欠である。
これは、現実世界で安全に、あるいは徹底的に収集できるシナリオ以外のシナリオをテストするために、高忠実度シミュレータを構築する必要がある。
NeRFと3DGSをベースとした既存のニューラルネットワークレンダリング手法は、約束を守っているが、レンダリング速度の低下やピンホールカメラモデルのみのレンダリングに悩まされているため、高歪みレンズやLiDARデータを必要とするアプリケーションへの適合性を妨げている。
マルチセンサーシミュレーションは、既存の手法が他を犠牲にして1つのモダリティの品質を優先することで、クロスセンサーの不整合を処理するため、さらなる課題をもたらす。
これらの制限を克服するため、任意のカメラモデルとLiDARデータをリアルタイムにレンダリングできる最初の方法であるSimULiを提案する。
提案手法は,複雑なカメラモデルとLiDARをネイティブにサポートする3DGUTを拡張し,任意の回転するLiDARモデルとレイベースのカリングの自動タイリング戦略により,LiDARをサポートする。
クロスセンサの不整合に対処するため,従来の手法に比べて平均カメラと奥行き誤差を最大40%低減する3次元ガウス表現とアンカー戦略を設計した。
SimULiはレイトレーシングのアプローチよりも10~20倍高速で、ラスタライズベースの作業よりも1.5~10倍高速である(より広い範囲のカメラモデルを扱う)。
広くベンチマークされた2つの自律走行データセットで評価すると、Simuliは多くのカメラとLiDARメトリクスで既存の最先端の手法の忠実さにマッチするか、超える。
関連論文リスト
- SaLF: Sparse Local Fields for Multi-Sensor Rendering in Real-Time [35.22650337397612]
ボリューム化とレイトレーシングをサポートする新しい表現であるスパース局所場(SaLF)について述べる。
SaLFは高速トレーニング(30分)とレンダリング機能(カメラは50FPS以上、LiDARは600FPS以上)を備え、大きなシーンを容易に扱えるように適応的なプルーニングとデンシフィケーションを備え、非ピンホールカメラをサポートし、LiDARを回転させることができる。
論文 参考訳(メタデータ) (2025-07-24T18:01:22Z) - JiSAM: Alleviate Labeling Burden and Corner Case Problems in Autonomous Driving via Minimal Real-World Data [49.2298619289506]
本稿では,ジッタリング強化,ドメイン認識バックボーン,メモリに基づくセクタライズAlignMentのためのJiSAMというプラグイン・アンド・プレイ手法を提案する。
有名なADデータセットであるNuScenesで実施された広範な実験において、SOTA 3Dオブジェクト検出器を用いて、JiSAMはシミュレーションデータと2.5%の実データにラベルを付けるだけで、実データで訓練されたモデルに匹敵する性能が得られることを示した。
論文 参考訳(メタデータ) (2025-03-11T13:35:39Z) - SplatAD: Real-Time Lidar and Camera Rendering with 3D Gaussian Splatting for Autonomous Driving [6.221538885604869]
カメラとライダーデータのセンサリアリスティックレンダリングのための既存のニューラル放射場(NeRF)法は、低レンダリング速度に悩まされている。
SplatADは,カメラとライダーデータの両方の動的シーンをリアルかつリアルタイムにレンダリングするための,最初の3DGSベースの手法である。
論文 参考訳(メタデータ) (2024-11-25T16:18:22Z) - Digital twins to alleviate the need for real field data in vision-based vehicle speed detection systems [0.9899633398596672]
正確な視覚に基づく速度推定は、レーダーやLiDARに基づく従来の手法よりもコスト効率が高い。
ディープラーニングのアプローチは、利用可能なデータがないため、このコンテキストでは極めて限定的です。
本研究では,CARLAシミュレータを用いたデジタルツインを用いて,特定の実世界のカメラの大規模なデータセットを生成することを提案する。
論文 参考訳(メタデータ) (2024-07-11T10:41:20Z) - Waymax: An Accelerated, Data-Driven Simulator for Large-Scale Autonomous
Driving Research [76.93956925360638]
Waymaxは、マルチエージェントシーンにおける自動運転のための新しいデータ駆動シミュレータである。
TPU/GPUなどのハードウェアアクセラレータで完全に動作し、トレーニング用のグラフ内シミュレーションをサポートする。
我々は、一般的な模倣と強化学習アルゴリズムのスイートをベンチマークし、異なる設計決定に関するアブレーション研究を行った。
論文 参考訳(メタデータ) (2023-10-12T20:49:15Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - Recovering and Simulating Pedestrians in the Wild [81.38135735146015]
本研究では,自動車の走行によって野生で捕獲されたセンサから歩行者の形状と動きを復元することを提案する。
再建された歩行者資産銀行をリアルな3Dシミュレーションシステムに組み込む。
シミュレーションしたLiDARデータを用いて,視覚知覚タスクに必要な実世界のデータ量を大幅に削減できることを示す。
論文 参考訳(メタデータ) (2020-11-16T17:16:32Z) - LIBRE: The Multiple 3D LiDAR Dataset [54.25307983677663]
We present LIBRE: LiDAR Benchmarking and Reference, a first-of-in-kind dataset with 10 different LiDAR sensor。
LIBREは、現在利用可能なLiDARを公平に比較するための手段を提供するために、研究コミュニティに貢献する。
また、既存の自動運転車やロボティクス関連のソフトウェアの改善も促進する。
論文 参考訳(メタデータ) (2020-03-13T06:17:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。