論文の概要: LiDAR Data Enrichment Using Deep Learning Based on High-Resolution
Image: An Approach to Achieve High-Performance LiDAR SLAM Using Low-cost
LiDAR
- arxiv url: http://arxiv.org/abs/2008.03694v1
- Date: Sun, 9 Aug 2020 09:20:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 04:18:20.674813
- Title: LiDAR Data Enrichment Using Deep Learning Based on High-Resolution
Image: An Approach to Achieve High-Performance LiDAR SLAM Using Low-cost
LiDAR
- Title(参考訳): 高解像度画像に基づくディープラーニングによるLiDARデータ強化:低コストLiDARを用いた高性能LiDARSLAMの実現へのアプローチ
- Authors: Jiang Yue, Weisong Wen, Jing Han, and Li-Ta Hsu
- Abstract要約: 本稿では、カメラからの高解像度画像を用いて、低コストの16チャンネルLiDARから生の3D点雲を濃縮する。
ERFNetは、生のスパース3D点雲の助けを借りて画像を分割するために使用される。
スパース畳み込みニューラルネットワークは、生のスパース3D点雲に基づいて密度の高い点雲を予測するために使用される。
- 参考スコア(独自算出の注目度): 15.0719696353702
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: LiDAR-based SLAM algorithms are extensively studied to providing robust and
accurate positioning for autonomous driving vehicles (ADV) in the past decades.
Satisfactory performance can be obtained using high-grade 3D LiDAR with 64
channels, which can provide dense point clouds. Unfortunately, the high price
significantly prevents its extensive commercialization in ADV. The
cost-effective 3D LiDAR with 16 channels is a promising replacement. However,
only limited and sparse point clouds can be provided by the 16 channels LiDAR,
which cannot guarantee sufficient positioning accuracy for ADV in challenging
dynamic environments. The high-resolution image from the low-cost camera can
provide ample information about the surroundings. However, the explicit depth
information is not available from the image. Inspired by the complementariness
of 3D LiDAR and camera, this paper proposes to make use of the high-resolution
images from a camera to enrich the raw 3D point clouds from the low-cost 16
channels LiDAR based on a state-of-the-art deep learning algorithm. An ERFNet
is firstly employed to segment the image with the aid of the raw sparse 3D
point clouds. Meanwhile, the sparse convolutional neural network is employed to
predict the dense point clouds based on raw sparse 3D point clouds. Then, the
predicted dense point clouds are fused with the segmentation outputs from
ERFnet using a novel multi-layer convolutional neural network to refine the
predicted 3D point clouds. Finally, the enriched point clouds are employed to
perform LiDAR SLAM based on the state-of-the-art normal distribution transform
(NDT). We tested our approach on the re-edited KITTI datasets: (1)the sparse 3D
point clouds are significantly enriched with a mean square error of 1.1m MSE.
(2)the map generated from the LiDAR SLAM is denser which includes more details
without significant accuracy loss.
- Abstract(参考訳): LiDARベースのSLAMアルゴリズムは、過去数十年で自動運転車(ADV)の堅牢で正確な位置決めを提供するために、広範囲に研究されている。
64チャンネルの高品位3dlidarで十分な性能を得ることができ、密集した点雲を提供することができる。
残念ながら、高い価格がADVの広範な商業化を著しく妨げている。
コスト効率のよい16チャンネルの3D LiDARは、有望な代替品だ。
しかし、16チャンネルのlidarによってのみ、限定的かつスパースポイントの雲が提供され、動的環境におけるadvの十分な位置決め精度を保証することはできない。
低コストカメラからの高解像度画像は、周囲についての豊富な情報を提供することができる。
しかし、画像から明らかな深度情報は得られない。
本稿では,3D LiDARとカメラの相補性に着想を得て,カメラからの高解像度画像を用いて,最先端のディープラーニングアルゴリズムに基づいて,低コストの16チャンネルLiDARから生の3D点雲を濃縮する手法を提案する。
ERFNetは、まず、生のスパース3D点雲の助けを借りて画像を分割するために使用される。
一方、スパース畳み込みニューラルネットワークは、生のスパース3d点雲に基づいて密集した点雲を予測するために用いられる。
そして、新たな多層畳み込みニューラルネットワークを用いてerfnetのセグメンテーション出力と予測された濃密点雲を融合させ、予測した3d点雲を精製する。
最後に、高密度点雲を用いて、最先端の正規分布変換(NDT)に基づいてLiDAR SLAMを実行する。
再編集されたkittiデータセットに対して,(1)スパース3dポイントの雲は,平均2乗誤差1.1mseで著しく濃縮されている。
2) LiDAR SLAM から生成された地図はより密集しており, 精度が著しく低下しない。
関連論文リスト
- ES-Gaussian: Gaussian Splatting Mapping via Error Space-Based Gaussian Completion [9.443354889048614]
視覚ベースのマッピングは、粗い点雲のために高品質な3D再構成に苦しむことが多い。
低高度カメラと単線LiDARを用いた高品質な3D再構成システムES-Gaussianを提案する。
論文 参考訳(メタデータ) (2024-10-09T07:09:29Z) - Sparse-to-Dense LiDAR Point Generation by LiDAR-Camera Fusion for 3D Object Detection [9.076003184833557]
2D画像特徴を融合させてLiDARポイントクラウドデータを再構成する新しいフレームワークであるLiDAR-Camera Augmentation Network (LCANet)を提案する。
LCANetは、画像特徴を3D空間に投影し、意味情報をポイントクラウドデータに統合することで、LiDARセンサーからのデータを融合する。
この融合は、しばしばスパースポイントで表される長距離物体の検出におけるLiDARの弱点を効果的に補う。
論文 参考訳(メタデータ) (2024-09-23T13:03:31Z) - UltraLiDAR: Learning Compact Representations for LiDAR Completion and
Generation [51.443788294845845]
我々は、シーンレベルのLiDAR補完、LiDAR生成、LiDAR操作のためのデータ駆動フレームワークであるUltraLiDARを提案する。
スパース点雲の表現を高密度点雲の表現に合わせることで、スパース点雲を密度化できることが示される。
個別のコードブック上で事前学習を行うことで、多種多様な現実的なLiDARポイントクラウドを自動走行のために生成できます。
論文 参考訳(メタデータ) (2023-11-02T17:57:03Z) - LiDAR-NeRF: Novel LiDAR View Synthesis via Neural Radiance Fields [112.62936571539232]
本稿では,LiDARセンサのための新しいビュー合成手法を提案する。
スタイルトランスファーニューラルネットワークを用いた従来のモデルベースLiDARシミュレータは、新しいビューのレンダリングに応用できる。
ニューラル放射場(NeRF)を用いて幾何学と3D点の属性の連成学習を容易にする。
論文 参考訳(メタデータ) (2023-04-20T15:44:37Z) - FPPN: Future Pseudo-LiDAR Frame Prediction for Autonomous Driving [30.18167579599365]
本稿では,最初の疑似LiDARフレーム予測ネットワークを提案する。
まず、ダイナミックな動き情報に基づいて、将来的な深度マップを粗大に予測する。
我々は静的な文脈情報を用いて予測された深度マップを精査する。
将来の擬似LiDARフレームは、予測された高密度深度マップを対応する3D点雲に変換することで得ることができる。
論文 参考訳(メタデータ) (2021-12-08T16:46:18Z) - 3D Vehicle Detection Using Camera and Low-Resolution LiDAR [6.293059137498174]
低解像度LiDARと単眼カメラを用いたバードアイビュー(BEV)における3次元物体検出のための新しいフレームワークを提案する。
低解像度のLiDARポイントクラウドと単眼像を入力として、深度補完ネットワークは高密度なポイントクラウドを生成できます。
容易かつ適度なケースでは、検出結果は64ライン高精細lidarと同等である。
論文 参考訳(メタデータ) (2021-05-04T21:08:20Z) - Volumetric Propagation Network: Stereo-LiDAR Fusion for Long-Range Depth
Estimation [81.08111209632501]
長距離深度推定のための幾何認識型ステレオLiDAR融合ネットワークを提案する。
ステレオ画像の対応を統一した3Dボリューム空間で導くためのキューとして、スパースで正確な点群を活用します。
我々のネットワークは,KITTIおよびVirtual-KITTIデータセット上での最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-03-24T03:24:46Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR
Segmentation [81.02742110604161]
大規模運転シーンのLiDARセグメンテーションのための最先端の手法は、しばしば点雲を2次元空間に投影し、2D畳み込みによって処理する。
そこで我々は,3次元幾何学的パタンを探索するために,円筒分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
提案手法はセマンティックKITTIのリーダーボードにおいて第1位を獲得し,既存のnuScenesの手法を約4%のマージンで上回っている。
論文 参考訳(メタデータ) (2020-11-19T18:53:11Z) - Pseudo-LiDAR Point Cloud Interpolation Based on 3D Motion Representation
and Spatial Supervision [68.35777836993212]
我々はPseudo-LiDAR点雲ネットワークを提案し、時間的および空間的に高品質な点雲列を生成する。
点雲間のシーンフローを活用することにより,提案ネットワークは3次元空間運動関係のより正確な表現を学習することができる。
論文 参考訳(メタデータ) (2020-06-20T03:11:04Z) - End-to-End Pseudo-LiDAR for Image-Based 3D Object Detection [62.34374949726333]
擬似LiDAR(PL)は、LiDARセンサに基づく手法と安価なステレオカメラに基づく手法の精度ギャップを劇的に減らした。
PLは最先端のディープニューラルネットワークと2D深度マップ出力を3Dポイントクラウド入力に変換することで3Dオブジェクト検出のための3D深度推定を組み合わせている。
我々は、PLパイプライン全体をエンドツーエンドにトレーニングできるように、差別化可能なRepresentation (CoR)モジュールに基づく新しいフレームワークを導入します。
論文 参考訳(メタデータ) (2020-04-07T02:18:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。