論文の概要: LinK3D: Linear Keypoints Representation for 3D LiDAR Point Cloud
- arxiv url: http://arxiv.org/abs/2206.05927v3
- Date: Wed, 10 Jan 2024 15:36:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-11 18:15:46.427117
- Title: LinK3D: Linear Keypoints Representation for 3D LiDAR Point Cloud
- Title(参考訳): link3d: 3dlidar point cloudの線形キーポイント表現
- Authors: Yunge Cui, Yinlong Zhang, Jiahua Dong, Haibo Sun, Xieyuanli Chen and
Feng Zhu
- Abstract要約: 本稿では,LinK3Dと呼ばれる3次元LiDAR点雲に対する線形キーポイント表現法を提案する。
LinK3Dは、典型的な回転するLiDARセンサーの10Hzでのセンサーフレームレートよりも高速で、優れたリアルタイム性能を示す。
提案手法はLiDARオドメトリータスクに拡張可能であり,優れた拡張性を示す。
- 参考スコア(独自算出の注目度): 18.942933892804028
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Feature extraction and matching are the basic parts of many robotic vision
tasks, such as 2D or 3D object detection, recognition, and registration. As is
known, 2D feature extraction and matching have already achieved great success.
Unfortunately, in the field of 3D, the current methods may fail to support the
extensive application of 3D LiDAR sensors in robotic vision tasks due to their
poor descriptiveness and inefficiency. To address this limitation, we propose a
novel 3D feature representation method: Linear Keypoints representation for 3D
LiDAR point cloud, called LinK3D. The novelty of LinK3D lies in that it fully
considers the characteristics (such as the sparsity and complexity) of LiDAR
point clouds and represents the keypoint with its robust neighbor keypoints,
which provide strong constraints in the description of the keypoint. The
proposed LinK3D has been evaluated on three public datasets, and the
experimental results show that our method achieves great matching performance.
More importantly, LinK3D also shows excellent real-time performance, faster
than the sensor frame rate at 10 Hz of a typical rotating LiDAR sensor. LinK3D
only takes an average of 30 milliseconds to extract features from the point
cloud collected by a 64-beam LiDAR and takes merely about 20 milliseconds to
match two LiDAR scans when executed on a computer with an Intel Core i7
processor. Moreover, our method can be extended to LiDAR odometry task, and
shows good scalability. We release the implementation of our method at
https://github.com/YungeCui/LinK3D.
- Abstract(参考訳): 特徴抽出とマッチングは、2Dや3Dオブジェクトの検出、認識、登録など、多くのロボットビジョンタスクの基本的な部分である。
知られているように、2次元特徴抽出とマッチングはすでに大きな成功を収めている。
残念ながら、3Dの分野では、現在の方法では、ロボットビジョンタスクに3D LiDARセンサーを広範囲に応用できない可能性がある。
この制限に対処するため,LinK3Dと呼ばれる3次元LiDAR点雲に対する線形キーポイント表現法を提案する。
link3dの目新しさは、lidar point cloudの特徴(スパーシティや複雑性など)を完全に考慮し、キーポイントを頑健な隣のキーポイントで表現し、キーポイントの記述に強い制約を与える点にある。
提案したLinK3Dは3つの公開データセットで評価され,実験結果から提案手法が優れたマッチング性能を実現することが示された。
さらにLinK3Dは、通常のLiDARセンサーの10Hzでのセンサーフレームレートよりも高速で、優れたリアルタイム性能を示している。
LinK3Dは、64ビームのLiDARで収集された点群から、平均30ミリ秒で特徴を抽出し、Intel Core i7プロセッサでコンピュータ上で実行すると、2つのLiDARスキャンに一致するのに、わずか20ミリ秒しかかからない。
さらに,本手法はLiDARオドメトリータスクに拡張可能であり,スケーラビリティも良好である。
我々は、このメソッドの実装をhttps://github.com/YungeCui/LinK3Dでリリースします。
関連論文リスト
- Sparse Points to Dense Clouds: Enhancing 3D Detection with Limited LiDAR Data [68.18735997052265]
単分子と点雲に基づく3次元検出の利点を組み合わせたバランスの取れたアプローチを提案する。
本手法では,低コストで低解像度のセンサから得られる3Dポイントを少数必要としている。
3次元検出の精度は最先端の単分子検出法と比較して20%向上する。
論文 参考訳(メタデータ) (2024-04-10T03:54:53Z) - Weakly Supervised 3D Object Detection via Multi-Level Visual Guidance [72.6809373191638]
本稿では,3次元ラベルを必要とせずに2次元ドメインと3次元ドメイン間の制約を活用できるフレームワークを提案する。
具体的には、LiDARと画像特徴をオブジェクト認識領域に基づいて整列する特徴レベルの制約を設計する。
第二に、出力レベルの制約は、2Dと投影された3Dボックスの推定の重なりを強制するために開発される。
第3に、トレーニングレベルの制約は、視覚データと整合した正確で一貫した3D擬似ラベルを生成することによって利用される。
論文 参考訳(メタデータ) (2023-12-12T18:57:25Z) - Sparse2Dense: Learning to Densify 3D Features for 3D Object Detection [85.08249413137558]
LiDARが生成する点雲は、最先端の3Dオブジェクト検出器の主要な情報源である。
小さい、遠く、不完全な点の少ない物体は、しばしば検出するのが困難である。
Sparse2Denseは、潜在空間における点雲の密度化を学習することで、3D検出性能を効率的に向上する新しいフレームワークである。
論文 参考訳(メタデータ) (2022-11-23T16:01:06Z) - MinkLoc3D-SI: 3D LiDAR place recognition with sparse convolutions,
spherical coordinates, and intensity [1.1549572298362785]
我々は3次元LiDAR測定の強度を処理するスパース畳み込みベースのソリューションであるMinkLoc3D-SIを紹介する。
実験の結果, 3次元LiDARによる単一スキャンの結果と, 高度な一般化能力が得られた。
MinkLoc3D-SIは3D LiDARから得られた単一のスキャンに適しており、自動運転車に適用できる。
論文 参考訳(メタデータ) (2021-12-13T10:21:34Z) - 3D3L: Deep Learned 3D Keypoint Detection and Description for LiDARs [25.73598441491818]
本稿では3D3Lの基盤として最先端の2D特徴ネットワークを使用し,LiDAR領域の画像の強度と深さを両立させる。
以上の結果から,lidarスキャン画像から抽出されたキーポイントとディスクリプタは,各ベンチマーク指標において最先端を上回っていた。
論文 参考訳(メタデータ) (2021-03-25T13:08:07Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z) - RoIFusion: 3D Object Detection from LiDAR and Vision [7.878027048763662]
本稿では,3次元関心領域(RoI)の集合を点雲から対応する画像の2次元ロIに投影することで,新しい融合アルゴリズムを提案する。
提案手法は,KITTI 3Dオブジェクト検出課題ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2020-09-09T20:23:27Z) - End-to-End Pseudo-LiDAR for Image-Based 3D Object Detection [62.34374949726333]
擬似LiDAR(PL)は、LiDARセンサに基づく手法と安価なステレオカメラに基づく手法の精度ギャップを劇的に減らした。
PLは最先端のディープニューラルネットワークと2D深度マップ出力を3Dポイントクラウド入力に変換することで3Dオブジェクト検出のための3D深度推定を組み合わせている。
我々は、PLパイプライン全体をエンドツーエンドにトレーニングできるように、差別化可能なRepresentation (CoR)モジュールに基づく新しいフレームワークを導入します。
論文 参考訳(メタデータ) (2020-04-07T02:18:38Z) - D3Feat: Joint Learning of Dense Detection and Description of 3D Local
Features [51.04841465193678]
私たちは3Dポイントクラウドに3D完全畳み込みネットワークを活用しています。
本稿では,3次元点ごとに検出スコアと記述特徴の両方を密に予測する,新しい,実践的な学習機構を提案する。
本手法は,屋内と屋外の両方のシナリオで最先端の手法を実現する。
論文 参考訳(メタデータ) (2020-03-06T12:51:09Z) - RTM3D: Real-time Monocular 3D Detection from Object Keypoints for
Autonomous Driving [26.216609821525676]
最も成功した3D検出器は、3Dバウンディングボックスから2Dボックスへの投射制約を重要な構成要素としている。
画像空間における3次元境界ボックスの9つの視点キーポイントを予測し、3次元空間における3次元視点と2次元視点の幾何学的関係を利用して、次元、位置、方向を復元する。
提案手法は,KITTIベンチマークの最先端性能を達成しつつ,モノクロ画像の3次元検出を行う最初のリアルタイムシステムである。
論文 参考訳(メタデータ) (2020-01-10T08:29:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。