論文の概要: DeepIPCv2: LiDAR-powered Robust Environmental Perception and
Navigational Control for Autonomous Vehicle
- arxiv url: http://arxiv.org/abs/2307.06647v2
- Date: Mon, 31 Jul 2023 02:54:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-01 20:12:05.908788
- Title: DeepIPCv2: LiDAR-powered Robust Environmental Perception and
Navigational Control for Autonomous Vehicle
- Title(参考訳): DeepIPCv2:LiDARによる自動運転車のロバスト環境認識とナビゲーション制御
- Authors: Oskar Natan, Jun Miura
- Abstract要約: DeepIPCv2は、より堅牢な乾燥性のためにLiDARセンサーを使用して環境を知覚する自律運転モデルである。
DeepIPCv2は、LiDAR点雲の集合を主知覚入力とする。
- 参考スコア(独自算出の注目度): 2.512827436728378
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present DeepIPCv2, an autonomous driving model that perceives the
environment using a LiDAR sensor for more robust drivability, especially when
driving under poor illumination conditions where everything is not clearly
visible. DeepIPCv2 takes a set of LiDAR point clouds as the main perception
input. Since point clouds are not affected by illumination changes, they can
provide a clear observation of the surroundings no matter what the condition
is. This results in a better scene understanding and stable features provided
by the perception module to support the controller module in estimating
navigational control properly. To evaluate its performance, we conduct several
tests by deploying the model to predict a set of driving records and perform
real automated driving under three different conditions. We also conduct
ablation and comparative studies with some recent models to justify its
performance. Based on the experimental results, DeepIPCv2 shows a robust
performance by achieving the best drivability in all driving scenarios.
Furthermore, we will upload the codes to
https://github.com/oskarnatan/DeepIPCv2.
- Abstract(参考訳): 本研究では,lidarセンサを用いて環境を認識可能な運転モデルであるdeepipcv2を提案する。
DeepIPCv2は、LiDAR点雲の集合を主知覚入力とする。
点雲は照明の変化に影響されないため、どのような状態であっても周囲をはっきりと観察することができる。
これにより、ナビゲーション制御を適切に推定するコントローラモジュールをサポートするために、知覚モジュールによって提供されるシーン理解と安定した機能が改善される。
その性能を評価するために,運転記録のセットを予測し,3つの異なる条件下で実際の自動運転を行うことで,複数のテストを行った。
また,最近のモデルを用いてアブレーションと比較研究を行い,その性能を正当化する。
実験結果に基づき、deepipcv2は全ての運転シナリオにおいて最高のドレイバビリティを達成し、堅牢な性能を示す。
さらに、コードをhttps://github.com/oskarnatan/DeepIPCv2にアップロードします。
関連論文リスト
- LeTFuser: Light-weight End-to-end Transformer-Based Sensor Fusion for
Autonomous Driving with Multi-Task Learning [16.241116794114525]
本稿では,複数のRGB-Dカメラ表現を融合させるアルゴリズムであるLeTFuserを紹介する。
認識と制御を同時に行うためには,マルチタスク学習を利用する。
論文 参考訳(メタデータ) (2023-10-19T20:09:08Z) - LiDAR View Synthesis for Robust Vehicle Navigation Without Expert Labels [50.40632021583213]
我々は、危険な位置で物理的に運転することなく、新しい視点からLiDAR点雲を合成することを提案する。
我々は、LiDARスキャンを入力とし、将来の軌跡を出力として予測するディープラーニングモデルを訓練する。
次に、この予測軌道にウェイポイントコントローラを適用して、エゴ車両のスロットルおよびステアリングラベルを決定する。
論文 参考訳(メタデータ) (2023-08-02T20:46:43Z) - DeepIPC: Deeply Integrated Perception and Control for an Autonomous
Vehicle in Real Environments [9.028773906859541]
本稿では,自動運転に適した新しいエンドツーエンドモデルであるDeepIPCを紹介する。
DeepIPCは知覚と制御タスクをシームレスに統合する。
本評価は,DeepIPCの乾燥性およびマルチタスク効率において優れた性能を示すものである。
論文 参考訳(メタデータ) (2022-07-20T14:20:35Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - Fully End-to-end Autonomous Driving with Semantic Depth Cloud Mapping
and Multi-Agent [2.512827436728378]
本稿では,エンド・ツー・エンドとマルチタスクの学習方法を用いて学習した新しいディープラーニングモデルを提案する。
このモデルは,CARLAシミュレータ上で,現実の環境を模倣するために,通常の状況と異なる天候のシナリオを用いて評価する。
論文 参考訳(メタデータ) (2022-04-12T03:57:01Z) - Efficient and Robust LiDAR-Based End-to-End Navigation [132.52661670308606]
我々は,LiDARをベースとした効率的なエンドツーエンドナビゲーションフレームワークを提案する。
本稿では,スパース畳み込みカーネル最適化とハードウェア対応モデル設計に基づくFast-LiDARNetを提案する。
次に,単一の前方通過のみから予測の不確かさを直接推定するハイブリッド・エビデンシャル・フュージョンを提案する。
論文 参考訳(メタデータ) (2021-05-20T17:52:37Z) - IntentNet: Learning to Predict Intention from Raw Sensor Data [86.74403297781039]
本論文では,LiDARセンサが生成する3次元点群と,環境の動的なマップの両方を利用するワンステージ検出器と予測器を開発した。
当社のマルチタスクモデルは、それぞれの別々のモジュールよりも高い精度を実現し、計算を節約します。
論文 参考訳(メタデータ) (2021-01-20T00:31:52Z) - LiDAR-based Panoptic Segmentation via Dynamic Shifting Network [56.71765153629892]
LiDARベースのパノプティカルセグメンテーションは、オブジェクトとシーンを統一的に解析することを目的としている。
本稿では,ポイントクラウド領域における効果的な単視分割フレームワークとして機能する動的シフトネットワーク(DS-Net)を提案する。
提案するDS-Netは,現在の最先端手法よりも優れた精度を実現する。
論文 参考訳(メタデータ) (2020-11-24T08:44:46Z) - PillarFlow: End-to-end Birds-eye-view Flow Estimation for Autonomous
Driving [42.8479177012748]
鳥眼ビュー(BeV)におけるLIDARに基づくフロー推定のためのエンドツーエンドディープラーニングフレームワークを提案する。
本手法は連続点雲対を入力とし,各セルの動的状態を記述する2次元BeVフローグリッドを生成する。
実験の結果, 提案手法は2次元BeV流れを正確に推定するだけでなく, 動的物体と静的物体の両方の追尾性能も向上することがわかった。
論文 参考訳(メタデータ) (2020-08-03T20:36:28Z) - Probabilistic End-to-End Vehicle Navigation in Complex Dynamic
Environments with Multimodal Sensor Fusion [16.018962965273495]
全日と全天候のナビゲーションは、自動運転にとって重要な機能である。
本稿では,カメラ,ライダー,レーダからの情報を利用して,触覚能力を備えた確率的運転モデルを提案する。
その結果,提案モデルがベースラインを上回り,目に見えない環境での優れた一般化性能を実現することが示唆された。
論文 参考訳(メタデータ) (2020-05-05T03:48:10Z) - LIBRE: The Multiple 3D LiDAR Dataset [54.25307983677663]
We present LIBRE: LiDAR Benchmarking and Reference, a first-of-in-kind dataset with 10 different LiDAR sensor。
LIBREは、現在利用可能なLiDARを公平に比較するための手段を提供するために、研究コミュニティに貢献する。
また、既存の自動運転車やロボティクス関連のソフトウェアの改善も促進する。
論文 参考訳(メタデータ) (2020-03-13T06:17:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。