論文の概要: LinK3D: Linear Keypoints Representation for 3D LiDAR Point Cloud
- arxiv url: http://arxiv.org/abs/2206.05927v2
- Date: Tue, 31 Oct 2023 09:55:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-02 04:58:26.308286
- Title: LinK3D: Linear Keypoints Representation for 3D LiDAR Point Cloud
- Title(参考訳): link3d: 3dlidar point cloudの線形キーポイント表現
- Authors: Yunge Cui, Yinlong Zhang, Jiahua Dong, Haibo Sun, Xieyuanli Chen and
Feng Zhu
- Abstract要約: 本稿では,LinK3Dと呼ばれる3次元LiDAR点雲に対する線形キーポイント表現法を提案する。
提案したLinK3Dは、通常のLiDARセンサの10Hzでのセンサフレームレートよりも高速で、優れたリアルタイム性能を示す。
本稿では,LinK3DをLiDAR SLAMの計測と位置認識に応用する。
- 参考スコア(独自算出の注目度): 18.942933892804028
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Feature extraction and matching are the basic parts of many robotic vision
tasks, such as 2D or 3D object detection, recognition, and registration. As
known, 2D feature extraction and matching have already been achieved great
success. Unfortunately, in the field of 3D, the current methods fail to support
the extensive application of 3D LiDAR sensors in robotic vision tasks, due to
the poor descriptiveness and inefficiency. To address this limitation, we
propose a novel 3D feature representation method: Linear Keypoints
representation for 3D LiDAR point cloud, called LinK3D. The novelty of LinK3D
lies in that it fully considers the characteristics (such as the sparsity, and
complexity of scenes) of LiDAR point clouds, and represents the keypoint with
its robust neighbor keypoints, which provide strong distinction in the
description of the keypoint. The proposed LinK3D has been evaluated on two
public datasets (i.e., KITTI, Steven VLP16), and the experimental results show
that our method greatly outperforms the state-of-the-art in matching
performance. More importantly, LinK3D shows excellent real-time performance,
faster than the sensor frame rate at 10 Hz of a typical rotating LiDAR sensor.
LinK3D only takes an average of 32 milliseconds to extract features from the
point cloud collected by a 64-beam LiDAR, and takes merely about 8 milliseconds
to match two LiDAR scans when executed in a notebook with an Intel Core i7 @2.2
GHz processor. Moreover, our method can be widely extended to various 3D vision
applications. In this paper, we apply the proposed LinK3D to the LiDAR odometry
and place recognition task of LiDAR SLAM. The experimental results show that
our method can improve the efficiency and accuracy of LiDAR SLAM system.
- Abstract(参考訳): 特徴抽出とマッチングは、2Dや3Dオブジェクトの検出、認識、登録など、多くのロボットビジョンタスクの基本的な部分である。
既知のように、2d特徴抽出とマッチングはすでに大きな成功を収めている。
残念なことに、現在の3Dの分野では、ロボットビジョンタスクにおける3D LiDARセンサーの広範囲な応用をサポートできない。
この制限に対処するため,LinK3Dと呼ばれる3次元LiDAR点雲に対する線形キーポイント表現法を提案する。
LinK3D の新規性は、LiDAR の点雲の特徴(空間性、シーンの複雑さなど)を完全に考慮し、キーポイントをその頑丈な隣のキーポイントで表現し、キーポイントの記述を強く区別することにある。
提案したLinK3Dは,2つの公開データセット(KITTI,Steven VLP16)で評価され,実験結果から,提案手法が適合性能の最先端性を大幅に向上することが示された。
さらに重要なことは、LinK3Dは通常のLiDARセンサーの10Hzでのセンサーフレームレートよりも高速で、優れたリアルタイム性能を示している。
LinK3Dは64ビームのLiDARで収集された点から32ミリ秒で特徴を抽出し、ノートブックでIntel Core i7 @2.2 GHzプロセッサで実行すると2つのLiDARスキャンと一致するのに8ミリ秒しかかからない。
さらに,本手法は様々な3次元視覚アプリケーションに拡張可能である。
本稿では,LinK3DをLiDAR SLAMの計測と位置認識に応用する。
実験の結果,LiDAR SLAMシステムの効率と精度を向上させることができることがわかった。
関連論文リスト
- Sparse Points to Dense Clouds: Enhancing 3D Detection with Limited LiDAR Data [68.18735997052265]
単分子と点雲に基づく3次元検出の利点を組み合わせたバランスの取れたアプローチを提案する。
本手法では,低コストで低解像度のセンサから得られる3Dポイントを少数必要としている。
3次元検出の精度は最先端の単分子検出法と比較して20%向上する。
論文 参考訳(メタデータ) (2024-04-10T03:54:53Z) - Weakly Supervised 3D Object Detection via Multi-Level Visual Guidance [72.6809373191638]
本稿では,3次元ラベルを必要とせずに2次元ドメインと3次元ドメイン間の制約を活用できるフレームワークを提案する。
具体的には、LiDARと画像特徴をオブジェクト認識領域に基づいて整列する特徴レベルの制約を設計する。
第二に、出力レベルの制約は、2Dと投影された3Dボックスの推定の重なりを強制するために開発される。
第3に、トレーニングレベルの制約は、視覚データと整合した正確で一貫した3D擬似ラベルを生成することによって利用される。
論文 参考訳(メタデータ) (2023-12-12T18:57:25Z) - Sparse2Dense: Learning to Densify 3D Features for 3D Object Detection [85.08249413137558]
LiDARが生成する点雲は、最先端の3Dオブジェクト検出器の主要な情報源である。
小さい、遠く、不完全な点の少ない物体は、しばしば検出するのが困難である。
Sparse2Denseは、潜在空間における点雲の密度化を学習することで、3D検出性能を効率的に向上する新しいフレームワークである。
論文 参考訳(メタデータ) (2022-11-23T16:01:06Z) - MinkLoc3D-SI: 3D LiDAR place recognition with sparse convolutions,
spherical coordinates, and intensity [1.1549572298362785]
我々は3次元LiDAR測定の強度を処理するスパース畳み込みベースのソリューションであるMinkLoc3D-SIを紹介する。
実験の結果, 3次元LiDARによる単一スキャンの結果と, 高度な一般化能力が得られた。
MinkLoc3D-SIは3D LiDARから得られた単一のスキャンに適しており、自動運転車に適用できる。
論文 参考訳(メタデータ) (2021-12-13T10:21:34Z) - 3D3L: Deep Learned 3D Keypoint Detection and Description for LiDARs [25.73598441491818]
本稿では3D3Lの基盤として最先端の2D特徴ネットワークを使用し,LiDAR領域の画像の強度と深さを両立させる。
以上の結果から,lidarスキャン画像から抽出されたキーポイントとディスクリプタは,各ベンチマーク指標において最先端を上回っていた。
論文 参考訳(メタデータ) (2021-03-25T13:08:07Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z) - RoIFusion: 3D Object Detection from LiDAR and Vision [7.878027048763662]
本稿では,3次元関心領域(RoI)の集合を点雲から対応する画像の2次元ロIに投影することで,新しい融合アルゴリズムを提案する。
提案手法は,KITTI 3Dオブジェクト検出課題ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2020-09-09T20:23:27Z) - End-to-End Pseudo-LiDAR for Image-Based 3D Object Detection [62.34374949726333]
擬似LiDAR(PL)は、LiDARセンサに基づく手法と安価なステレオカメラに基づく手法の精度ギャップを劇的に減らした。
PLは最先端のディープニューラルネットワークと2D深度マップ出力を3Dポイントクラウド入力に変換することで3Dオブジェクト検出のための3D深度推定を組み合わせている。
我々は、PLパイプライン全体をエンドツーエンドにトレーニングできるように、差別化可能なRepresentation (CoR)モジュールに基づく新しいフレームワークを導入します。
論文 参考訳(メタデータ) (2020-04-07T02:18:38Z) - D3Feat: Joint Learning of Dense Detection and Description of 3D Local
Features [51.04841465193678]
私たちは3Dポイントクラウドに3D完全畳み込みネットワークを活用しています。
本稿では,3次元点ごとに検出スコアと記述特徴の両方を密に予測する,新しい,実践的な学習機構を提案する。
本手法は,屋内と屋外の両方のシナリオで最先端の手法を実現する。
論文 参考訳(メタデータ) (2020-03-06T12:51:09Z) - RTM3D: Real-time Monocular 3D Detection from Object Keypoints for
Autonomous Driving [26.216609821525676]
最も成功した3D検出器は、3Dバウンディングボックスから2Dボックスへの投射制約を重要な構成要素としている。
画像空間における3次元境界ボックスの9つの視点キーポイントを予測し、3次元空間における3次元視点と2次元視点の幾何学的関係を利用して、次元、位置、方向を復元する。
提案手法は,KITTIベンチマークの最先端性能を達成しつつ,モノクロ画像の3次元検出を行う最初のリアルタイムシステムである。
論文 参考訳(メタデータ) (2020-01-10T08:29:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。