論文の概要: LiDARsim: Realistic LiDAR Simulation by Leveraging the Real World
- arxiv url: http://arxiv.org/abs/2006.09348v1
- Date: Tue, 16 Jun 2020 17:44:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-20 21:15:39.121961
- Title: LiDARsim: Realistic LiDAR Simulation by Leveraging the Real World
- Title(参考訳): LiDARsim:実世界の活用によるリアルなLiDARシミュレーション
- Authors: Sivabalan Manivasagam, Shenlong Wang, Kelvin Wong, Wenyuan Zeng,
Mikita Sazanovich, Shuhan Tan, Bin Yang, Wei-Chiu Ma, Raquel Urtasun
- Abstract要約: 物理に基づくシミュレーションと学習に基づくシミュレーションの両方のパワーをキャプチャする新しいシミュレータを開発した。
まず3Dシーン上でレイキャストを行い、次にディープニューラルネットワークを用いて物理シミュレーションから偏差を生成する。
本稿では,LiDARsimが長距離イベントにおける認識アルゴリズムのテストに有用であること,および安全クリティカルシナリオにおけるエンドツーエンドのクローズループ評価について紹介する。
- 参考スコア(独自算出の注目度): 84.57894492587053
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We tackle the problem of producing realistic simulations of LiDAR point
clouds, the sensor of preference for most self-driving vehicles. We argue that,
by leveraging real data, we can simulate the complex world more realistically
compared to employing virtual worlds built from CAD/procedural models. Towards
this goal, we first build a large catalog of 3D static maps and 3D dynamic
objects by driving around several cities with our self-driving fleet. We can
then generate scenarios by selecting a scene from our catalog and "virtually"
placing the self-driving vehicle (SDV) and a set of dynamic objects from the
catalog in plausible locations in the scene. To produce realistic simulations,
we develop a novel simulator that captures both the power of physics-based and
learning-based simulation. We first utilize ray casting over the 3D scene and
then use a deep neural network to produce deviations from the physics-based
simulation, producing realistic LiDAR point clouds. We showcase LiDARsim's
usefulness for perception algorithms-testing on long-tail events and end-to-end
closed-loop evaluation on safety-critical scenarios.
- Abstract(参考訳): 我々は、ほとんどの自動運転車に好まれるセンサーであるLiDAR点雲を現実的にシミュレーションする問題に取り組む。
我々は,実データを活用することで,CAD/プロデューラルモデルから構築した仮想世界よりも複雑な世界をより現実的にシミュレートできると主張している。
この目標に向けて、私たちはまず3d静的マップと3d動的オブジェクトの大規模なカタログを構築しました。
そして、私たちのカタログからシーンを選択してシナリオを生成し、自動運転車(SDV)と、そのカタログから動的なオブジェクトのセットをシーン内のもっともらしい場所に配置する。
現実的なシミュレーションを作成するために,物理シミュレーションと学習シミュレーションの両方のパワーをキャプチャする新しいシミュレータを開発した。
まず3Dシーン上でレイキャストを行い、次にディープニューラルネットワークを用いて物理シミュレーションから偏差を生成し、現実的なLiDAR点雲を生成する。
本稿では,LiDARsimが長距離イベントにおける認識アルゴリズムのテストに有用であること,および安全クリティカルシナリオにおけるエンドツーエンド閉ループ評価について紹介する。
関連論文リスト
- Deep Reinforcement Learning for Adverse Garage Scenario Generation [5.482809279542029]
本論文では,自律運転シミュレーションテストのための自動プログラム生成フレームワークを提案する。
深層強化学習に基づいて、3Dモデルファイルとマップモデルファイルが構築される異なる2Dグラウンドスクリプトコードを生成することができる。
生成された3DグラウンドシーンはCarlaシミュレータに表示され、実験者はこのシーンをナビゲーションアルゴリズムのシミュレーションテストに使用することができる。
論文 参考訳(メタデータ) (2024-07-01T14:41:18Z) - Reconstructing Objects in-the-wild for Realistic Sensor Simulation [41.55571880832957]
我々は,スパース・イン・ザ・ワイルドデータから正確な幾何学的および現実的な外観を推定する新しい手法であるNeuSimを提案する。
物体の外観を物理にインスパイアされた頑健な反射率表現でモデル化し,実測データに有効である。
実験の結果,NeuSimはスパース・トレーニング・ビューを持つ難解なシナリオに対して,強力なビュー合成性能を有することがわかった。
論文 参考訳(メタデータ) (2023-11-09T18:58:22Z) - CADSim: Robust and Scalable in-the-wild 3D Reconstruction for
Controllable Sensor Simulation [44.83732884335725]
センサシミュレーションでは、車などの交通参加者を高品質な外観と明瞭な幾何学でモデル化する。
現在の再構築アプローチは、その広さとノイズのために、Wildのセンサーデータに苦労している。
本稿では,車体形状を自動再構成するために,CADモデルの小さなセットと微分レンダリングを併用したCADSimを提案する。
論文 参考訳(メタデータ) (2023-11-02T17:56:59Z) - Sim-to-Real via Sim-to-Seg: End-to-end Off-road Autonomous Driving
Without Real Data [56.49494318285391]
我々は、オフロード自動運転の視覚的現実的ギャップを横断するRCANを再想像するSim2Segを紹介する。
これは、ランダム化されたシミュレーション画像をシミュレートされたセグメンテーションと深さマップに変換する学習によって行われる。
これにより、シミュレーションでエンドツーエンドのRLポリシーをトレーニングし、現実世界に直接デプロイできます。
論文 参考訳(メタデータ) (2022-10-25T17:50:36Z) - Learning to Simulate Realistic LiDARs [66.7519667383175]
リアルLiDARセンサのデータ駆動シミュレーションのためのパイプラインを提案する。
本モデルでは, 透明表面上の落下点などの現実的な効果を符号化できることが示される。
我々は2つの異なるLiDARセンサのモデルを学習し、それに従ってシミュレーションされたLiDARデータを改善する。
論文 参考訳(メタデータ) (2022-09-22T13:12:54Z) - VISTA 2.0: An Open, Data-driven Simulator for Multimodal Sensing and
Policy Learning for Autonomous Vehicles [131.2240621036954]
VISTAはオープンソースのデータ駆動シミュレータで、複数のタイプのセンサーを自律走行車に組み込む。
高忠実で実世界のデータセットを使用して、VISTAはRGBカメラ、3D LiDAR、イベントベースのカメラを表現し、シミュレートする。
センサタイプ毎に知覚制御ポリシーをトレーニングし,テストする能力を示し,フルスケールの自律走行車への展開を通じて,このアプローチのパワーを示す。
論文 参考訳(メタデータ) (2021-11-23T18:58:10Z) - DriveGAN: Towards a Controllable High-Quality Neural Simulation [147.6822288981004]
DriveGANと呼ばれる新しい高品質のニューラルシミュレータを紹介します。
DriveGANは、異なるコンポーネントを監督なしで切り離すことによって制御性を達成する。
実世界の運転データ160時間を含む複数のデータセットでdriveganをトレーニングします。
論文 参考訳(メタデータ) (2021-04-30T15:30:05Z) - Recovering and Simulating Pedestrians in the Wild [81.38135735146015]
本研究では,自動車の走行によって野生で捕獲されたセンサから歩行者の形状と動きを復元することを提案する。
再建された歩行者資産銀行をリアルな3Dシミュレーションシステムに組み込む。
シミュレーションしたLiDARデータを用いて,視覚知覚タスクに必要な実世界のデータ量を大幅に削減できることを示す。
論文 参考訳(メタデータ) (2020-11-16T17:16:32Z) - SurfelGAN: Synthesizing Realistic Sensor Data for Autonomous Driving [27.948417322786575]
本稿では,現実的なシナリオセンサデータを生成するための,シンプルで効果的な手法を提案する。
われわれのアプローチでは、テクスチャマップされたサーフを使用して、初期車両のパスやセットのパスからシーンを効率的に再構築する。
次に、SurfelGANネットワークを利用して、現実的なカメライメージを再構築し、自動運転車の新たな位置と方向を推定する。
論文 参考訳(メタデータ) (2020-05-08T04:01:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。