論文の概要: VISTA 2.0: An Open, Data-driven Simulator for Multimodal Sensing and
Policy Learning for Autonomous Vehicles
- arxiv url: http://arxiv.org/abs/2111.12083v1
- Date: Tue, 23 Nov 2021 18:58:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-24 14:30:54.788756
- Title: VISTA 2.0: An Open, Data-driven Simulator for Multimodal Sensing and
Policy Learning for Autonomous Vehicles
- Title(参考訳): VISTA 2.0: 自動運転車のためのマルチモーダルセンシングとポリシー学習のためのオープンなデータ駆動シミュレータ
- Authors: Alexander Amini, Tsun-Hsuan Wang, Igor Gilitschenski, Wilko
Schwarting, Zhijian Liu, Song Han, Sertac Karaman, Daniela Rus
- Abstract要約: VISTAはオープンソースのデータ駆動シミュレータで、複数のタイプのセンサーを自律走行車に組み込む。
高忠実で実世界のデータセットを使用して、VISTAはRGBカメラ、3D LiDAR、イベントベースのカメラを表現し、シミュレートする。
センサタイプ毎に知覚制御ポリシーをトレーニングし,テストする能力を示し,フルスケールの自律走行車への展開を通じて,このアプローチのパワーを示す。
- 参考スコア(独自算出の注目度): 131.2240621036954
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Simulation has the potential to transform the development of robust
algorithms for mobile agents deployed in safety-critical scenarios. However,
the poor photorealism and lack of diverse sensor modalities of existing
simulation engines remain key hurdles towards realizing this potential. Here,
we present VISTA, an open source, data-driven simulator that integrates
multiple types of sensors for autonomous vehicles. Using high fidelity,
real-world datasets, VISTA represents and simulates RGB cameras, 3D LiDAR, and
event-based cameras, enabling the rapid generation of novel viewpoints in
simulation and thereby enriching the data available for policy learning with
corner cases that are difficult to capture in the physical world. Using VISTA,
we demonstrate the ability to train and test perception-to-control policies
across each of the sensor types and showcase the power of this approach via
deployment on a full scale autonomous vehicle. The policies learned in VISTA
exhibit sim-to-real transfer without modification and greater robustness than
those trained exclusively on real-world data.
- Abstract(参考訳): シミュレーションは、安全クリティカルなシナリオに展開されるモバイルエージェントのためのロバストなアルゴリズムの開発を変革する可能性がある。
しかし、フォトリアリズムの貧弱さと既存のシミュレーションエンジンの多様なセンサーモダリティの欠如は、この可能性を実現する上で重要なハードルである。
ここでは、自動運転車のための複数のタイプのセンサーを統合するオープンソースのデータ駆動シミュレータであるVISTAを紹介する。
高忠実で実世界のデータセットを使用して、VISTAはRGBカメラ、3D LiDAR、およびイベントベースのカメラを表現し、シミュレートし、シミュレーションにおける新しい視点を迅速に生成し、物理的世界では捉えにくいコーナーケースでポリシー学習に利用可能なデータを強化する。
VISTAを用いて、センサタイプ毎に知覚制御ポリシーをトレーニングし、テストする能力を示し、フルスケールの自動運転車への展開を通じてこのアプローチのパワーを示す。
VISTAで学んだポリシーは、実世界のデータにのみ訓練されたものよりも、修正することなく、より堅牢な、シミュレートから現実への移行を示す。
関連論文リスト
- Learning autonomous driving from aerial imagery [67.06858775696453]
フォトグラムシミュレーターは、生成済みの資産を新しいビューに変換することによって、新しいビューを合成することができる。
我々は、ニューラルネットワーク場(NeRF)を中間表現として使用し、地上車両の視点から新しいビューを合成する。
論文 参考訳(メタデータ) (2024-10-18T05:09:07Z) - CADSim: Robust and Scalable in-the-wild 3D Reconstruction for
Controllable Sensor Simulation [44.83732884335725]
センサシミュレーションでは、車などの交通参加者を高品質な外観と明瞭な幾何学でモデル化する。
現在の再構築アプローチは、その広さとノイズのために、Wildのセンサーデータに苦労している。
本稿では,車体形状を自動再構成するために,CADモデルの小さなセットと微分レンダリングを併用したCADSimを提案する。
論文 参考訳(メタデータ) (2023-11-02T17:56:59Z) - TrafficBots: Towards World Models for Autonomous Driving Simulation and
Motion Prediction [149.5716746789134]
我々は,データ駆動型交通シミュレーションを世界モデルとして定式化できることを示した。
動作予測とエンドツーエンドの運転に基づくマルチエージェントポリシーであるTrafficBotsを紹介する。
オープンモーションデータセットの実験は、TrafficBotsが現実的なマルチエージェント動作をシミュレートできることを示している。
論文 参考訳(メタデータ) (2023-03-07T18:28:41Z) - Sim-to-Real via Sim-to-Seg: End-to-end Off-road Autonomous Driving
Without Real Data [56.49494318285391]
我々は、オフロード自動運転の視覚的現実的ギャップを横断するRCANを再想像するSim2Segを紹介する。
これは、ランダム化されたシミュレーション画像をシミュレートされたセグメンテーションと深さマップに変換する学習によって行われる。
これにより、シミュレーションでエンドツーエンドのRLポリシーをトレーニングし、現実世界に直接デプロイできます。
論文 参考訳(メタデータ) (2022-10-25T17:50:36Z) - DeXtreme: Transfer of Agile In-hand Manipulation from Simulation to
Reality [64.51295032956118]
我々は人型ロボットの手で頑健な操作を行える政策を訓練する。
本研究は,各種ハードウェアおよびシミュレータのデクスタラス操作におけるsim-to-real転送の可能性を再確認する。
論文 参考訳(メタデータ) (2022-10-25T01:51:36Z) - Data generation using simulation technology to improve perception
mechanism of autonomous vehicles [0.0]
実世界から収集したデータと模擬世界から生成されたデータを組み合わせることで、認識システムを訓練する効果を実証する。
また,人間の学習体験をエミュレートすることを目的とした多段階深層学習知覚フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-01T03:42:33Z) - Towards Optimal Strategies for Training Self-Driving Perception Models
in Simulation [98.51313127382937]
合成ドメインのみにおけるラベルの使用に焦点を当てる。
提案手法では,ニューラル不変表現の学習方法と,シミュレータからデータをサンプリングする方法に関する理論的にインスピレーションを得た視点を導入する。
マルチセンサーデータを用いた鳥眼視車両分割作業におけるアプローチについて紹介する。
論文 参考訳(メタデータ) (2021-11-15T18:37:43Z) - SurfelGAN: Synthesizing Realistic Sensor Data for Autonomous Driving [27.948417322786575]
本稿では,現実的なシナリオセンサデータを生成するための,シンプルで効果的な手法を提案する。
われわれのアプローチでは、テクスチャマップされたサーフを使用して、初期車両のパスやセットのパスからシーンを効率的に再構築する。
次に、SurfelGANネットワークを利用して、現実的なカメライメージを再構築し、自動運転車の新たな位置と方向を推定する。
論文 参考訳(メタデータ) (2020-05-08T04:01:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。