論文の概要: Efficient and Robust LiDAR-Based End-to-End Navigation
- arxiv url: http://arxiv.org/abs/2105.09932v1
- Date: Thu, 20 May 2021 17:52:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-21 13:26:34.927691
- Title: Efficient and Robust LiDAR-Based End-to-End Navigation
- Title(参考訳): 効率的かつロバストなLiDARによるエンドツーエンドナビゲーション
- Authors: Zhijian Liu, Alexander Amini, Sibo Zhu, Sertac Karaman, Song Han,
Daniela Rus
- Abstract要約: 我々は,LiDARをベースとした効率的なエンドツーエンドナビゲーションフレームワークを提案する。
本稿では,スパース畳み込みカーネル最適化とハードウェア対応モデル設計に基づくFast-LiDARNetを提案する。
次に,単一の前方通過のみから予測の不確かさを直接推定するハイブリッド・エビデンシャル・フュージョンを提案する。
- 参考スコア(独自算出の注目度): 132.52661670308606
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning has been used to demonstrate end-to-end neural network learning
for autonomous vehicle control from raw sensory input. While LiDAR sensors
provide reliably accurate information, existing end-to-end driving solutions
are mainly based on cameras since processing 3D data requires a large memory
footprint and computation cost. On the other hand, increasing the robustness of
these systems is also critical; however, even estimating the model's
uncertainty is very challenging due to the cost of sampling-based methods. In
this paper, we present an efficient and robust LiDAR-based end-to-end
navigation framework. We first introduce Fast-LiDARNet that is based on sparse
convolution kernel optimization and hardware-aware model design. We then
propose Hybrid Evidential Fusion that directly estimates the uncertainty of the
prediction from only a single forward pass and then fuses the control
predictions intelligently. We evaluate our system on a full-scale vehicle and
demonstrate lane-stable as well as navigation capabilities. In the presence of
out-of-distribution events (e.g., sensor failures), our system significantly
improves robustness and reduces the number of takeovers in the real world.
- Abstract(参考訳): ディープラーニングは、生の感覚入力から自律的な車両制御のためのエンドツーエンドニューラルネットワーク学習の実証に使用されている。
lidarセンサーは確実に正確な情報を提供するが、既存のエンド・ツー・エンドの運転ソリューションは3dデータの処理には大きなメモリフットプリントと計算コストを必要とするため、主にカメラに基づいている。
一方で、これらのシステムの堅牢性を高めることも重要であるが、サンプリングベースの手法のコストがかかるため、モデルの不確かさを推定することさえ非常に困難である。
本稿では,LiDARを用いたエンドツーエンドナビゲーションフレームワークを提案する。
我々はまず,スパース畳み込みカーネル最適化とハードウェア対応モデル設計に基づくFast-LiDARNetを紹介する。
次に,1回のフォワードパスのみから予測の不確実性を直接推定し,制御予測をインテリジェントに融合するハイブリッド実証融合を提案する。
実車上でのシステム評価を行い,車線安定と航法能力の実証を行った。
分散イベント(例えばセンサ障害)が存在する場合、システムはロバスト性を大幅に改善し、現実世界での乗っ取り回数を削減します。
関連論文リスト
- An Efficient Approach to Generate Safe Drivable Space by LiDAR-Camera-HDmap Fusion [13.451123257796972]
ドライビング可能な空間抽出のための自律走行車(AV)のための高精度で堅牢な認識モジュールを提案する。
我々の研究は、LiDAR、カメラ、HDマップデータ融合を利用した、堅牢で汎用的な知覚モジュールを導入している。
我々のアプローチは実際のデータセットでテストされ、その信頼性は、私たちの自律シャトルであるWATonoBusの日々の(厳しい雪の天候を含む)運用中に検証されます。
論文 参考訳(メタデータ) (2024-10-29T17:54:02Z) - Optical Flow Matters: an Empirical Comparative Study on Fusing Monocular Extracted Modalities for Better Steering [37.46760714516923]
本研究は、単眼カメラからのマルチモーダル情報を利用して、自動運転車のステアリング予測を改善する新しいエンドツーエンド手法を提案する。
本稿では,RGB画像と深度補完情報や光フローデータとの融合に着目し,これらのモダリティを早期・ハイブリッド融合技術によって統合する枠組みを提案する。
論文 参考訳(メタデータ) (2024-09-18T09:36:24Z) - Deep Learning-Based Robust Multi-Object Tracking via Fusion of mmWave Radar and Camera Sensors [6.166992288822812]
複雑なトラフィックシナリオを通じて、より安全で効率的なナビゲーションを実現する上で、マルチオブジェクトトラッキングは重要な役割を果たす。
本稿では,自律走行システムにおける複数物体追跡の精度とロバスト性を高めるために,レーダデータとカメラデータを統合した新しいディープラーニング方式を提案する。
論文 参考訳(メタデータ) (2024-07-10T21:09:09Z) - Multi-Modal Data-Efficient 3D Scene Understanding for Autonomous Driving [58.16024314532443]
我々は、異なるLiDARスキャンからレーザービーム操作を統合するフレームワークであるLaserMix++を導入し、データ効率の学習を支援するためにLiDAR-カメラ対応を組み込んだ。
結果は、LaserMix++が完全に教師付き代替よりも優れており、5倍のアノテーションで同等の精度を実現していることを示している。
この大幅な進歩は、LiDARベースの3Dシーン理解システムにおける広範囲なラベル付きデータへの依存を減らすための半教師付きアプローチの可能性を示している。
論文 参考訳(メタデータ) (2024-05-08T17:59:53Z) - TrajectoryNAS: A Neural Architecture Search for Trajectory Prediction [0.0]
軌道予測は自律走行システムの重要な構成要素である。
本稿では,軌道予測にポイントクラウドデータを活用する先駆的手法であるTrajectoryNASを紹介する。
論文 参考訳(メタデータ) (2024-03-18T11:48:41Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - Bayesian Optimization and Deep Learning forsteering wheel angle
prediction [58.720142291102135]
本研究の目的は,自動走行システムにおける操舵角度予測の精度の高いモデルを得ることである。
BOは限られた試行数で、BOST-LSTMと呼ばれるモデルを特定し、古典的なエンドツーエンド駆動モデルと比較して最も正確な結果を得た。
論文 参考訳(メタデータ) (2021-10-22T15:25:14Z) - Deep Learning based Pedestrian Inertial Navigation: Methods, Dataset and
On-Device Inference [49.88536971774444]
慣性測定ユニット(IMU)は小型で安価でエネルギー効率が良く、スマートデバイスや移動ロボットに広く使われている。
正確で信頼性の高い歩行者ナビゲーションをサポートするために慣性データをエクスプロイトすることは、新しいインターネット・オブ・シングス・アプリケーションやサービスにとって重要なコンポーネントである。
我々は、深層学習に基づく慣性ナビゲーション研究のための最初の公開データセットであるOxIOD(OxIOD)を提示、リリースする。
論文 参考訳(メタデータ) (2020-01-13T04:41:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。