論文の概要: DeepIPCv2: LiDAR-powered Robust Environmental Perception and
Navigational Control for Autonomous Vehicle
- arxiv url: http://arxiv.org/abs/2307.06647v2
- Date: Mon, 31 Jul 2023 02:54:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-01 20:12:05.908788
- Title: DeepIPCv2: LiDAR-powered Robust Environmental Perception and
Navigational Control for Autonomous Vehicle
- Title(参考訳): DeepIPCv2:LiDARによる自動運転車のロバスト環境認識とナビゲーション制御
- Authors: Oskar Natan, Jun Miura
- Abstract要約: DeepIPCv2は、より堅牢な乾燥性のためにLiDARセンサーを使用して環境を知覚する自律運転モデルである。
DeepIPCv2は、LiDAR点雲の集合を主知覚入力とする。
- 参考スコア(独自算出の注目度): 2.512827436728378
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present DeepIPCv2, an autonomous driving model that perceives the
environment using a LiDAR sensor for more robust drivability, especially when
driving under poor illumination conditions where everything is not clearly
visible. DeepIPCv2 takes a set of LiDAR point clouds as the main perception
input. Since point clouds are not affected by illumination changes, they can
provide a clear observation of the surroundings no matter what the condition
is. This results in a better scene understanding and stable features provided
by the perception module to support the controller module in estimating
navigational control properly. To evaluate its performance, we conduct several
tests by deploying the model to predict a set of driving records and perform
real automated driving under three different conditions. We also conduct
ablation and comparative studies with some recent models to justify its
performance. Based on the experimental results, DeepIPCv2 shows a robust
performance by achieving the best drivability in all driving scenarios.
Furthermore, we will upload the codes to
https://github.com/oskarnatan/DeepIPCv2.
- Abstract(参考訳): 本研究では,lidarセンサを用いて環境を認識可能な運転モデルであるdeepipcv2を提案する。
DeepIPCv2は、LiDAR点雲の集合を主知覚入力とする。
点雲は照明の変化に影響されないため、どのような状態であっても周囲をはっきりと観察することができる。
これにより、ナビゲーション制御を適切に推定するコントローラモジュールをサポートするために、知覚モジュールによって提供されるシーン理解と安定した機能が改善される。
その性能を評価するために,運転記録のセットを予測し,3つの異なる条件下で実際の自動運転を行うことで,複数のテストを行った。
また,最近のモデルを用いてアブレーションと比較研究を行い,その性能を正当化する。
実験結果に基づき、deepipcv2は全ての運転シナリオにおいて最高のドレイバビリティを達成し、堅牢な性能を示す。
さらに、コードをhttps://github.com/oskarnatan/DeepIPCv2にアップロードします。
関連論文リスト
- PLT-D3: A High-fidelity Dynamic Driving Simulation Dataset for Stereo Depth and Scene Flow [0.0]
本稿では,エンジン5を用いて生成した高忠実度ステレオ深度およびシーンフローグラウンド真理データであるダイナミックウェザードライビングデータセットを紹介する。
特に、このデータセットには、様々な動的気象シナリオを再現する、同期された高解像度ステレオ画像シーケンスが含まれている。
Unreal-D3を用いたいくつかの重要な自動運転タスクのためのベンチマークが確立され、最先端モデルの性能を計測し、向上している。
論文 参考訳(メタデータ) (2024-06-11T19:21:46Z) - End-to-End Driving via Self-Supervised Imitation Learning Using Camera and LiDAR Data [6.849144123909844]
本論文は,E2E運転のための自己教師付き模倣学習(SSIL)として,最初の完全自己教師型学習フレームワークを提案する。
提案したSSILフレームワークは、コマンドデータを使用せずにE2E駆動ネットワークを学習できる。
3つの異なるベンチマークデータセットを用いた数値実験により,提案したSSILフレームワークは,教師付き学習と同等のE2E駆動精度を達成できることを示した。
論文 参考訳(メタデータ) (2023-08-28T06:17:15Z) - LiDAR View Synthesis for Robust Vehicle Navigation Without Expert Labels [50.40632021583213]
我々は、危険な位置で物理的に運転することなく、新しい視点からLiDAR点雲を合成することを提案する。
我々は、LiDARスキャンを入力とし、将来の軌跡を出力として予測するディープラーニングモデルを訓練する。
次に、この予測軌道にウェイポイントコントローラを適用して、エゴ車両のスロットルおよびステアリングラベルを決定する。
論文 参考訳(メタデータ) (2023-08-02T20:46:43Z) - DeepIPC: Deeply Integrated Perception and Control for an Autonomous Vehicle in Real Environments [7.642646077340124]
本稿では,自動運転に適した新しいエンドツーエンドモデルであるDeepIPCを紹介する。
DeepIPCは知覚と制御タスクをシームレスに統合する。
本評価は,DeepIPCの乾燥性およびマルチタスク効率において優れた性能を示すものである。
論文 参考訳(メタデータ) (2022-07-20T14:20:35Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - Fully End-to-end Autonomous Driving with Semantic Depth Cloud Mapping
and Multi-Agent [2.512827436728378]
本稿では,エンド・ツー・エンドとマルチタスクの学習方法を用いて学習した新しいディープラーニングモデルを提案する。
このモデルは,CARLAシミュレータ上で,現実の環境を模倣するために,通常の状況と異なる天候のシナリオを用いて評価する。
論文 参考訳(メタデータ) (2022-04-12T03:57:01Z) - Efficient and Robust LiDAR-Based End-to-End Navigation [132.52661670308606]
我々は,LiDARをベースとした効率的なエンドツーエンドナビゲーションフレームワークを提案する。
本稿では,スパース畳み込みカーネル最適化とハードウェア対応モデル設計に基づくFast-LiDARNetを提案する。
次に,単一の前方通過のみから予測の不確かさを直接推定するハイブリッド・エビデンシャル・フュージョンを提案する。
論文 参考訳(メタデータ) (2021-05-20T17:52:37Z) - IntentNet: Learning to Predict Intention from Raw Sensor Data [86.74403297781039]
本論文では,LiDARセンサが生成する3次元点群と,環境の動的なマップの両方を利用するワンステージ検出器と予測器を開発した。
当社のマルチタスクモデルは、それぞれの別々のモジュールよりも高い精度を実現し、計算を節約します。
論文 参考訳(メタデータ) (2021-01-20T00:31:52Z) - LiDAR-based Panoptic Segmentation via Dynamic Shifting Network [56.71765153629892]
LiDARベースのパノプティカルセグメンテーションは、オブジェクトとシーンを統一的に解析することを目的としている。
本稿では,ポイントクラウド領域における効果的な単視分割フレームワークとして機能する動的シフトネットワーク(DS-Net)を提案する。
提案するDS-Netは,現在の最先端手法よりも優れた精度を実現する。
論文 参考訳(メタデータ) (2020-11-24T08:44:46Z) - Probabilistic End-to-End Vehicle Navigation in Complex Dynamic
Environments with Multimodal Sensor Fusion [16.018962965273495]
全日と全天候のナビゲーションは、自動運転にとって重要な機能である。
本稿では,カメラ,ライダー,レーダからの情報を利用して,触覚能力を備えた確率的運転モデルを提案する。
その結果,提案モデルがベースラインを上回り,目に見えない環境での優れた一般化性能を実現することが示唆された。
論文 参考訳(メタデータ) (2020-05-05T03:48:10Z) - LIBRE: The Multiple 3D LiDAR Dataset [54.25307983677663]
We present LIBRE: LiDAR Benchmarking and Reference, a first-of-in-kind dataset with 10 different LiDAR sensor。
LIBREは、現在利用可能なLiDARを公平に比較するための手段を提供するために、研究コミュニティに貢献する。
また、既存の自動運転車やロボティクス関連のソフトウェアの改善も促進する。
論文 参考訳(メタデータ) (2020-03-13T06:17:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。