論文の概要: Efficient and Robust LiDAR-Based End-to-End Navigation
- arxiv url: http://arxiv.org/abs/2105.09932v1
- Date: Thu, 20 May 2021 17:52:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-21 13:26:34.927691
- Title: Efficient and Robust LiDAR-Based End-to-End Navigation
- Title(参考訳): 効率的かつロバストなLiDARによるエンドツーエンドナビゲーション
- Authors: Zhijian Liu, Alexander Amini, Sibo Zhu, Sertac Karaman, Song Han,
Daniela Rus
- Abstract要約: 我々は,LiDARをベースとした効率的なエンドツーエンドナビゲーションフレームワークを提案する。
本稿では,スパース畳み込みカーネル最適化とハードウェア対応モデル設計に基づくFast-LiDARNetを提案する。
次に,単一の前方通過のみから予測の不確かさを直接推定するハイブリッド・エビデンシャル・フュージョンを提案する。
- 参考スコア(独自算出の注目度): 132.52661670308606
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning has been used to demonstrate end-to-end neural network learning
for autonomous vehicle control from raw sensory input. While LiDAR sensors
provide reliably accurate information, existing end-to-end driving solutions
are mainly based on cameras since processing 3D data requires a large memory
footprint and computation cost. On the other hand, increasing the robustness of
these systems is also critical; however, even estimating the model's
uncertainty is very challenging due to the cost of sampling-based methods. In
this paper, we present an efficient and robust LiDAR-based end-to-end
navigation framework. We first introduce Fast-LiDARNet that is based on sparse
convolution kernel optimization and hardware-aware model design. We then
propose Hybrid Evidential Fusion that directly estimates the uncertainty of the
prediction from only a single forward pass and then fuses the control
predictions intelligently. We evaluate our system on a full-scale vehicle and
demonstrate lane-stable as well as navigation capabilities. In the presence of
out-of-distribution events (e.g., sensor failures), our system significantly
improves robustness and reduces the number of takeovers in the real world.
- Abstract(参考訳): ディープラーニングは、生の感覚入力から自律的な車両制御のためのエンドツーエンドニューラルネットワーク学習の実証に使用されている。
lidarセンサーは確実に正確な情報を提供するが、既存のエンド・ツー・エンドの運転ソリューションは3dデータの処理には大きなメモリフットプリントと計算コストを必要とするため、主にカメラに基づいている。
一方で、これらのシステムの堅牢性を高めることも重要であるが、サンプリングベースの手法のコストがかかるため、モデルの不確かさを推定することさえ非常に困難である。
本稿では,LiDARを用いたエンドツーエンドナビゲーションフレームワークを提案する。
我々はまず,スパース畳み込みカーネル最適化とハードウェア対応モデル設計に基づくFast-LiDARNetを紹介する。
次に,1回のフォワードパスのみから予測の不確実性を直接推定し,制御予測をインテリジェントに融合するハイブリッド実証融合を提案する。
実車上でのシステム評価を行い,車線安定と航法能力の実証を行った。
分散イベント(例えばセンサ障害)が存在する場合、システムはロバスト性を大幅に改善し、現実世界での乗っ取り回数を削減します。
関連論文リスト
- Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - An Efficient Semi-Automated Scheme for Infrastructure LiDAR Annotation [15.523875367380196]
トラッキングアルゴリズムを用いてLiDARシーケンスを自動的にアノテートする,効率的な半自動アノテーションツールを提案する。
本ツールでは,マルチオブジェクト追跡(MOT),シングルオブジェクト追跡(SOT),適切なトラック後処理手法をシームレスに統合する。
論文 参考訳(メタデータ) (2023-01-25T17:42:15Z) - LE3D: A Lightweight Ensemble Framework of Data Drift Detectors for
Resource-Constrained Devices [5.990153766122006]
本稿では,センサの異常検出が可能なデータドリフト推定器のアンサンブルフレームワークLE3Dを提案する。
提案されたフレームワークは、リソース制約のあるIoTデバイス上で動作可能な、軽量で教師なしの実装である。
また,本手法の有効性を示すとともに,最小限のリソースを必要としながら,検出精度の最大97%を達成できることを示す。
論文 参考訳(メタデータ) (2022-11-03T14:20:49Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - PillarGrid: Deep Learning-based Cooperative Perception for 3D Object
Detection from Onboard-Roadside LiDAR [15.195933965761645]
我々は,複数の3次元LiDARからの情報を融合した新しい協調認識手法であるtextitPillarGridを提案する。
PillarGrid は,1) 点雲の協調前処理,2) 軸方向のボキセル化と特徴抽出,3) 複数のセンサからの特徴のグリッド方向の深層融合,4) 畳み込みニューラルネットワーク(CNN) に基づく3Dオブジェクト検出である。
広汎な実験により、PillarGridはSOTA単一LiDARに基づく3Dオブジェクト検出法よりも精度と範囲を大きなマージンで上回ることがわかった。
論文 参考訳(メタデータ) (2022-03-12T02:28:41Z) - Bayesian Optimization and Deep Learning forsteering wheel angle
prediction [58.720142291102135]
本研究の目的は,自動走行システムにおける操舵角度予測の精度の高いモデルを得ることである。
BOは限られた試行数で、BOST-LSTMと呼ばれるモデルを特定し、古典的なエンドツーエンド駆動モデルと比較して最も正確な結果を得た。
論文 参考訳(メタデータ) (2021-10-22T15:25:14Z) - IntentNet: Learning to Predict Intention from Raw Sensor Data [86.74403297781039]
本論文では,LiDARセンサが生成する3次元点群と,環境の動的なマップの両方を利用するワンステージ検出器と予測器を開発した。
当社のマルチタスクモデルは、それぞれの別々のモジュールよりも高い精度を実現し、計算を節約します。
論文 参考訳(メタデータ) (2021-01-20T00:31:52Z) - Deep Learning based Pedestrian Inertial Navigation: Methods, Dataset and
On-Device Inference [49.88536971774444]
慣性測定ユニット(IMU)は小型で安価でエネルギー効率が良く、スマートデバイスや移動ロボットに広く使われている。
正確で信頼性の高い歩行者ナビゲーションをサポートするために慣性データをエクスプロイトすることは、新しいインターネット・オブ・シングス・アプリケーションやサービスにとって重要なコンポーネントである。
我々は、深層学習に基づく慣性ナビゲーション研究のための最初の公開データセットであるOxIOD(OxIOD)を提示、リリースする。
論文 参考訳(メタデータ) (2020-01-13T04:41:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。