論文の概要: Unified Sensor Simulation for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2602.05617v1
- Date: Thu, 05 Feb 2026 12:52:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:08.931883
- Title: Unified Sensor Simulation for Autonomous Driving
- Title(参考訳): 自律運転のための統一型センサシミュレーション
- Authors: Nikolay Patakin, Arsenii Shirokov, Anton Konushin, Dmitry Senushkin,
- Abstract要約: XSIMは3DGUTスプラッティングを拡張し、自律運転用に最適化されたローリングシャッターモデリングを行う。
我々のフレームワークは、外観と幾何学的センサーモデリングのための統一的で柔軟な定式化を提供する。
我々は、複数の自律走行データセットに基づいて、我々のフレームワークを広範囲に評価する。
- 参考スコア(独自算出の注目度): 7.935201483073418
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we introduce \textbf{XSIM}, a sensor simulation framework for autonomous driving. XSIM extends 3DGUT splatting with a generalized rolling-shutter modeling tailored for autonomous driving applications. Our framework provides a unified and flexible formulation for appearance and geometric sensor modeling, enabling rendering of complex sensor distortions in dynamic environments. We identify spherical cameras, such as LiDARs, as a critical edge case for existing 3DGUT splatting due to cyclic projection and time discontinuities at azimuth boundaries leading to incorrect particle projection. To address this issue, we propose a phase modeling mechanism that explicitly accounts temporal and shape discontinuities of Gaussians projected by the Unscented Transform at azimuth borders. In addition, we introduce an extended 3D Gaussian representation that incorporates two distinct opacity parameters to resolve mismatches between geometry and color distributions. As a result, our framework provides enhanced scene representations with improved geometric consistency and photorealistic appearance. We evaluate our framework extensively on multiple autonomous driving datasets, including Waymo Open Dataset, Argoverse 2, and PandaSet. Our framework consistently outperforms strong recent baselines and achieves state-of-the-art performance across all datasets. The source code is publicly available at \href{https://github.com/whesense/XSIM}{https://github.com/whesense/XSIM}.
- Abstract(参考訳): 本稿では,自律運転のためのセンサシミュレーションフレームワークである \textbf{XSIM} を紹介する。
XSIMは3DGUTスプラッティングを拡張し、自律運転用に最適化されたローリングシャッターモデリングを行う。
我々のフレームワークは、外観と幾何学的センサモデリングのための統一的で柔軟な定式化を提供し、動的環境における複雑なセンサ歪みのレンダリングを可能にする。
我々は,LiDARなどの球面カメラを,直交射影と方位境界における時間不連続による既存の3DGUTスプラッティングの臨界エッジケースとして同定した。
この問題に対処するために,アジマス境界におけるアンセント変換によって投影されるガウスの時間的および形状の不連続性を明示的に考慮した位相モデリング機構を提案する。
さらに、幾何学と色分布のミスマッチを解決するために、2つの異なる不透明度パラメータを含む拡張された3次元ガウス表現を導入する。
その結果,構造的整合性やフォトリアリスティックな外観が向上し,シーン表現が向上した。
我々は、Waymo Open Dataset、Argoverse 2、PandaSetなど、複数の自律走行データセットに基づいて、我々のフレームワークを広範囲に評価する。
当社のフレームワークは、最近の強力なベースラインを一貫して上回り、すべてのデータセットで最先端のパフォーマンスを実現しています。
ソースコードは \href{https://github.com/whesense/XSIM}{https://github.com/whesense/XSIM} で公開されている。
関連論文リスト
- Scaling Up Occupancy-centric Driving Scene Generation: Dataset and Method [54.461213497603154]
作業中心の手法は、最近、フレームとモダリティをまたいだ一貫した条件付けを提供することで、最先端の結果を得た。
Nuplan-Occは、広く使われているNuplanベンチマークから構築された、これまでで最大の占有率データセットである。
高品質な占有、多視点ビデオ、LiDAR点雲を共同で合成する統合フレームワークを開発した。
論文 参考訳(メタデータ) (2025-10-27T03:52:45Z) - Cross-Modal Geometric Hierarchy Fusion: An Implicit-Submap Driven Framework for Resilient 3D Place Recognition [9.411542547451193]
本稿では,密度に依存しない幾何学的推論により3次元位置認識を再定義するフレームワークを提案する。
具体的には、元のシーンポイント雲密度の干渉に免疫する弾性点に基づく暗黙の3次元表現を導入する。
これら2種類の情報を活用することで,鳥眼視と3Dセグメントの両視点から幾何学的情報を融合する記述子を得る。
論文 参考訳(メタデータ) (2025-06-17T07:04:07Z) - Industrial-Grade Sensor Simulation via Gaussian Splatting: A Modular Framework for Scalable Editing and Full-Stack Validation [43.89295427855191]
センサシミュレーションは、自律運転システムのスケーラブルな検証に重要である。
既存のNeural Radiance Fields (NeRF)ベースの手法は、産業における適用性と効率性の課題に直面している。
本稿では,これらの課題に対処するため,ガウススプラッティング(GS)に基づくシステムを提案する。
論文 参考訳(メタデータ) (2025-03-14T10:10:22Z) - GaussRender: Learning 3D Occupancy with Gaussian Rendering [86.89653628311565]
GaussRenderは、投影的一貫性を強制することによって3D占有学習を改善するモジュールである。
提案手法は,不整合な2次元プロジェクションを生成する3次元構成をペナライズすることにより,より一貫性のある3次元構造を実現する。
論文 参考訳(メタデータ) (2025-02-07T16:07:51Z) - Bench2Drive-R: Turning Real World Data into Reactive Closed-Loop Autonomous Driving Benchmark by Generative Model [63.336123527432136]
我々は,リアクティブ閉ループ評価を可能にする生成フレームワークであるBench2Drive-Rを紹介する。
既存の自動運転用ビデオ生成モデルとは異なり、提案された設計はインタラクティブなシミュレーションに適したものである。
我々は、Bench2Drive-Rの生成品質を既存の生成モデルと比較し、最先端の性能を達成する。
論文 参考訳(メタデータ) (2024-12-11T06:35:18Z) - GPS-Gaussian+: Generalizable Pixel-wise 3D Gaussian Splatting for Real-Time Human-Scene Rendering from Sparse Views [67.34073368933814]
スパースビューカメラ設定下での高解像度画像レンダリングのための一般化可能なガウススプラッティング手法を提案する。
我々は,人間のみのデータや人景データに基づいてガウスパラメータ回帰モジュールをトレーニングし,深度推定モジュールと共同で2次元パラメータマップを3次元空間に引き上げる。
いくつかのデータセットに対する実験により、我々の手法はレンダリング速度を超越しながら最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-11-18T08:18:44Z) - AutoSplat: Constrained Gaussian Splatting for Autonomous Driving Scene Reconstruction [17.600027937450342]
AutoSplatは、自動走行シーンの高度に現実的な再構築を実現するために、ガウシアンスプラッティングを使用したフレームワークである。
本手法は,車線変更を含む課題シナリオの多視点一貫したシミュレーションを可能にする。
論文 参考訳(メタデータ) (2024-07-02T18:36:50Z) - Outdoor Scene Extrapolation with Hierarchical Generative Cellular Automata [70.9375320609781]
我々は,自律走行車(AV)で多量に捕獲された大規模LiDARスキャンから微細な3次元形状を生成することを目指している。
本稿では,空間的にスケーラブルな3次元生成モデルである階層型生成セルオートマトン (hGCA) を提案する。
論文 参考訳(メタデータ) (2024-06-12T14:56:56Z) - LiDAR-based Panoptic Segmentation via Dynamic Shifting Network [56.71765153629892]
LiDARベースのパノプティカルセグメンテーションは、オブジェクトとシーンを統一的に解析することを目的としている。
本稿では,ポイントクラウド領域における効果的な単視分割フレームワークとして機能する動的シフトネットワーク(DS-Net)を提案する。
提案するDS-Netは,現在の最先端手法よりも優れた精度を実現する。
論文 参考訳(メタデータ) (2020-11-24T08:44:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。