論文の概要: LEAD: LiDAR Extender for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2102.07989v1
- Date: Tue, 16 Feb 2021 07:35:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-17 14:54:47.415941
- Title: LEAD: LiDAR Extender for Autonomous Driving
- Title(参考訳): リード:自動運転用LiDARエクステンダー
- Authors: Jianing Zhang, Wei Li, Honggang Gou, Lu Fang, Ruigang Yang
- Abstract要約: MEMS LiDARは、その低コスト、より堅牢、および大量生産基準を満たすため、耐え難い傾向で出現します。
それは小さい視野(FoV)に苦しめられ、人口のステップを遅らせます。
我々は、MEMS LiDARをFoVと範囲を結合して拡張するLEAD(LiDAR Extender for Automation)を提案する。
- 参考スコア(独自算出の注目度): 48.233424487002445
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D perception using sensors under vehicle industrial standard is the rigid
demand in autonomous driving. MEMS LiDAR emerges with irresistible trend due to
its lower cost, more robust, and meeting the mass-production standards.
However, it suffers small field of view (FoV), slowing down the step of its
population. In this paper, we propose LEAD, i.e., LiDAR Extender for Autonomous
Driving, to extend the MEMS LiDAR by coupled image w.r.t both FoV and range. We
propose a multi-stage propagation strategy based on depth distributions and
uncertainty map, which shows effective propagation ability. Moreover, our depth
outpainting/propagation network follows a teacher-student training fashion,
which transfers depth estimation ability to depth completion network without
any scale error passed. To validate the LiDAR extension quality, we utilize a
high-precise laser scanner to generate a ground-truth dataset. Quantitative and
qualitative evaluations show that our scheme outperforms SOTAs with a large
margin. We believe the proposed LEAD along with the dataset would benefit the
community w.r.t depth researches.
- Abstract(参考訳): 自動車産業規格のセンサーを用いた3D認識は、自動運転の厳しい要求です。
MEMS LiDARは、その低コスト、より堅牢、および大量生産基準を満たすため、耐え難い傾向で出現します。
しかし、それは小さな視野(FoV)に苦しんで、その人口のステップを遅くします。
本稿では,自走運転用LiDAR拡張器であるLEADを提案し,FoVとレンジの両方で画像w.r.tを結合してMEMS LiDARを拡張する。
深度分布と不確実性マップに基づく多段伝搬戦略を提案し,効果的な伝搬能力を示す。
さらに, 深度推定能力は, スケール誤差を伴わずに, 深度推定能力を深度完備化ネットワークに伝達する, 教師/学生の学習スタイルを踏襲する。
LiDAR拡張の質を検証するため,高精度レーザースキャナーを用いて地中トラスデータセットを生成する。
定量的および定性的な評価は,本手法がSOTAよりも大きなマージンを有することを示す。
提案されたLEADとデータセットは、コミュニティのw.r.t深度研究の恩恵を受けると信じている。
関連論文リスト
- DurLAR: A High-fidelity 128-channel LiDAR Dataset with Panoramic Ambient and Reflectivity Imagery for Multi-modal Autonomous Driving Applications [21.066770408683265]
DurLARはパノラマ環境(近赤外)と反射率画像を備えた高忠実度18チャンネルのLiDARデータセットである。
提案手法は, 自己監督的・自己監督的損失項を, より優れた基礎的真理分解によって実現したことを示すものである。
論文 参考訳(メタデータ) (2024-06-14T14:24:05Z) - Multi-Modal Data-Efficient 3D Scene Understanding for Autonomous Driving [58.16024314532443]
我々は、異なるLiDARスキャンからレーザービーム操作を統合するフレームワークであるLaserMix++を導入し、データ効率の学習を支援するためにLiDAR-カメラ対応を組み込んだ。
結果は、LaserMix++が完全に教師付き代替よりも優れており、5倍のアノテーションで同等の精度を実現していることを示している。
この大幅な進歩は、LiDARベースの3Dシーン理解システムにおける広範囲なラベル付きデータへの依存を減らすための半教師付きアプローチの可能性を示している。
論文 参考訳(メタデータ) (2024-05-08T17:59:53Z) - UltraLiDAR: Learning Compact Representations for LiDAR Completion and
Generation [51.443788294845845]
我々は、シーンレベルのLiDAR補完、LiDAR生成、LiDAR操作のためのデータ駆動フレームワークであるUltraLiDARを提案する。
スパース点雲の表現を高密度点雲の表現に合わせることで、スパース点雲を密度化できることが示される。
個別のコードブック上で事前学習を行うことで、多種多様な現実的なLiDARポイントクラウドを自動走行のために生成できます。
論文 参考訳(メタデータ) (2023-11-02T17:57:03Z) - LiDAR View Synthesis for Robust Vehicle Navigation Without Expert Labels [50.40632021583213]
我々は、危険な位置で物理的に運転することなく、新しい視点からLiDAR点雲を合成することを提案する。
我々は、LiDARスキャンを入力とし、将来の軌跡を出力として予測するディープラーニングモデルを訓練する。
次に、この予測軌道にウェイポイントコントローラを適用して、エゴ車両のスロットルおよびステアリングラベルを決定する。
論文 参考訳(メタデータ) (2023-08-02T20:46:43Z) - LiDAR Meta Depth Completion [47.99004789132264]
本稿では,データパターンを用いてタスクネットワークを学習し,与えられた深度完了タスクを効果的に解決するメタ深度補完ネットワークを提案する。
一つのモデルを用いて、異なるLiDARパターンで訓練された非適応ベースラインよりも、はるかに優れた結果が得られる。
これらの利点は、異なるセンサーに単一の深度補完モデルの柔軟な展開を可能にする。
論文 参考訳(メタデータ) (2023-07-24T13:05:36Z) - Advancing Self-supervised Monocular Depth Learning with Sparse LiDAR [22.202192422883122]
本稿では,自己教師付き単分子深度学習を推進するための2段階ネットワークを提案する。
本モデルでは,単色画像特徴と疎LiDAR特徴を融合させて初期深度マップを推定する。
我々のモデルは、下流タスクのモノクロ3Dオブジェクト検出において、最先端のスパース-LiDAR法(Pseudo-LiDAR++)を68%以上向上させる。
論文 参考訳(メタデータ) (2021-09-20T15:28:36Z) - R4Dyn: Exploring Radar for Self-Supervised Monocular Depth Estimation of
Dynamic Scenes [69.6715406227469]
駆動シナリオにおける自己教師付き単眼深度推定は、教師付きアプローチに匹敵する性能を達成した。
本稿では,自己監督型深度推定フレームワーク上に費用効率の高いレーダデータを利用する新しい手法であるR4Dynを提案する。
論文 参考訳(メタデータ) (2021-08-10T17:57:03Z) - Efficient and Robust LiDAR-Based End-to-End Navigation [132.52661670308606]
我々は,LiDARをベースとした効率的なエンドツーエンドナビゲーションフレームワークを提案する。
本稿では,スパース畳み込みカーネル最適化とハードウェア対応モデル設計に基づくFast-LiDARNetを提案する。
次に,単一の前方通過のみから予測の不確かさを直接推定するハイブリッド・エビデンシャル・フュージョンを提案する。
論文 参考訳(メタデータ) (2021-05-20T17:52:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。