論文の概要: LinK3D: Linear Keypoints Representation for 3D LiDAR Point Cloud
- arxiv url: http://arxiv.org/abs/2206.05927v1
- Date: Mon, 13 Jun 2022 06:50:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-14 15:50:48.008248
- Title: LinK3D: Linear Keypoints Representation for 3D LiDAR Point Cloud
- Title(参考訳): link3d: 3dlidar point cloudの線形キーポイント表現
- Authors: Yunge Cui, Yinlong Zhang, Jiahua Dong, Haibo Sun and Feng Zhu
- Abstract要約: 本稿では,LinK3Dと呼ばれる3次元LiDAR点雲に対する線形キーポイント表現法を提案する。
また、LinK3Dは、LiDARの周波数10Hzに基づいて、優れたリアルタイム性能を示すことを示す。
本手法は様々な3次元視覚アプリケーションに拡張可能である。
- 参考スコア(独自算出の注目度): 11.0896643295901
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Feature extraction and matching are the basic parts of many computer vision
tasks, such as 2D or 3D object detection, recognition, and registration. As we
all know, 2D feature extraction and matching have already been achieved great
success. Unfortunately, in the field of 3D, the current methods fail to support
the extensive application of 3D LiDAR sensors in vision tasks, due to the poor
descriptiveness and inefficiency. To address this limitation, we propose a
novel 3D feature representation method: Linear Keypoints representation for 3D
LiDAR point cloud, called LinK3D. The novelty of LinK3D lies in that it fully
considers the characteristics (such as sparsity, complexity of scenarios) of
LiDAR point cloud, and represents current keypoint with its robust neighbor
keypoints, which provide strong constraint on the description of current
keypoint. The proposed LinK3D has been evaluated on two public datasets (i.e.,
KITTI, Steven VLP16), and the experimental results show that our method greatly
outperforms the state-of-the-arts in matching performance. More importantly,
LinK3D shows excellent real-time performance (based on the frequence 10 Hz of
LiDAR). LinK3D only takes an average of 32 milliseconds to extract features
from the point cloud collected by a 64-ray laser beam, and takes merely about 8
milliseconds to match two LiDAR scans when executed in a notebook with an Intel
Core i7 @2.2 GHz processor. Moreover, our method can be widely extended to a
variety of 3D vision applications. In this paper, we has applied our LinK3D to
3D registration, LiDAR odometry and place recognition tasks, and achieved
competitive results compared with the state-of-the-art methods.
- Abstract(参考訳): 特徴抽出とマッチングは、2Dや3Dオブジェクトの検出、認識、登録など、多くのコンピュータビジョンタスクの基本部分である。
ご存知の通り、2Dの特徴抽出とマッチングはすでに大きな成功を収めています。
残念なことに、3Dの分野では、現在の手法は視覚タスクにおける3D LiDARセンサーの広範囲な応用をサポートできない。
この制限に対処するため,LinK3Dと呼ばれる3次元LiDAR点雲に対する線形キーポイント表現法を提案する。
LinK3D の斬新さは、LiDAR のポイントクラウドの特徴(空間性、シナリオの複雑さなど)を完全に考慮し、現在のキーポイントをその強い隣のキーポイントで表現し、現在のキーポイントの記述に強い制約を与える点にある。
提案したLinK3Dは,2つの公開データセット(KITTI,Steven VLP16)で評価され,実験結果から,提案手法が適合性能の最先端性を大幅に向上することが示された。
さらに重要なことに、LinK3Dは(LiDARの周波数10Hzに基づいて)優れたリアルタイムパフォーマンスを示している。
LinK3Dは、64光のレーザービームで収集された点雲から特徴を引き出すのに平均32ミリ秒しかかからず、Intel Core i7 @2.2 GHzプロセッサでノートブックで実行すると2つのLiDARスキャンと一致するのに、わずか8ミリ秒しかかからない。
さらに、この手法は様々な3d視覚アプリケーションに広く拡張することができる。
本稿では,LinK3Dを3次元登録,LiDARオドメトリー,位置認識タスクに適用し,最先端手法と比較して競争力のある結果を得た。
関連論文リスト
- Sparse Points to Dense Clouds: Enhancing 3D Detection with Limited LiDAR Data [68.18735997052265]
単分子と点雲に基づく3次元検出の利点を組み合わせたバランスの取れたアプローチを提案する。
本手法では,低コストで低解像度のセンサから得られる3Dポイントを少数必要としている。
3次元検出の精度は最先端の単分子検出法と比較して20%向上する。
論文 参考訳(メタデータ) (2024-04-10T03:54:53Z) - Weakly Supervised 3D Object Detection via Multi-Level Visual Guidance [72.6809373191638]
本稿では,3次元ラベルを必要とせずに2次元ドメインと3次元ドメイン間の制約を活用できるフレームワークを提案する。
具体的には、LiDARと画像特徴をオブジェクト認識領域に基づいて整列する特徴レベルの制約を設計する。
第二に、出力レベルの制約は、2Dと投影された3Dボックスの推定の重なりを強制するために開発される。
第3に、トレーニングレベルの制約は、視覚データと整合した正確で一貫した3D擬似ラベルを生成することによって利用される。
論文 参考訳(メタデータ) (2023-12-12T18:57:25Z) - Sparse2Dense: Learning to Densify 3D Features for 3D Object Detection [85.08249413137558]
LiDARが生成する点雲は、最先端の3Dオブジェクト検出器の主要な情報源である。
小さい、遠く、不完全な点の少ない物体は、しばしば検出するのが困難である。
Sparse2Denseは、潜在空間における点雲の密度化を学習することで、3D検出性能を効率的に向上する新しいフレームワークである。
論文 参考訳(メタデータ) (2022-11-23T16:01:06Z) - MinkLoc3D-SI: 3D LiDAR place recognition with sparse convolutions,
spherical coordinates, and intensity [1.1549572298362785]
我々は3次元LiDAR測定の強度を処理するスパース畳み込みベースのソリューションであるMinkLoc3D-SIを紹介する。
実験の結果, 3次元LiDARによる単一スキャンの結果と, 高度な一般化能力が得られた。
MinkLoc3D-SIは3D LiDARから得られた単一のスキャンに適しており、自動運転車に適用できる。
論文 参考訳(メタデータ) (2021-12-13T10:21:34Z) - 3D3L: Deep Learned 3D Keypoint Detection and Description for LiDARs [25.73598441491818]
本稿では3D3Lの基盤として最先端の2D特徴ネットワークを使用し,LiDAR領域の画像の強度と深さを両立させる。
以上の結果から,lidarスキャン画像から抽出されたキーポイントとディスクリプタは,各ベンチマーク指標において最先端を上回っていた。
論文 参考訳(メタデータ) (2021-03-25T13:08:07Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z) - RoIFusion: 3D Object Detection from LiDAR and Vision [7.878027048763662]
本稿では,3次元関心領域(RoI)の集合を点雲から対応する画像の2次元ロIに投影することで,新しい融合アルゴリズムを提案する。
提案手法は,KITTI 3Dオブジェクト検出課題ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2020-09-09T20:23:27Z) - End-to-End Pseudo-LiDAR for Image-Based 3D Object Detection [62.34374949726333]
擬似LiDAR(PL)は、LiDARセンサに基づく手法と安価なステレオカメラに基づく手法の精度ギャップを劇的に減らした。
PLは最先端のディープニューラルネットワークと2D深度マップ出力を3Dポイントクラウド入力に変換することで3Dオブジェクト検出のための3D深度推定を組み合わせている。
我々は、PLパイプライン全体をエンドツーエンドにトレーニングできるように、差別化可能なRepresentation (CoR)モジュールに基づく新しいフレームワークを導入します。
論文 参考訳(メタデータ) (2020-04-07T02:18:38Z) - D3Feat: Joint Learning of Dense Detection and Description of 3D Local
Features [51.04841465193678]
私たちは3Dポイントクラウドに3D完全畳み込みネットワークを活用しています。
本稿では,3次元点ごとに検出スコアと記述特徴の両方を密に予測する,新しい,実践的な学習機構を提案する。
本手法は,屋内と屋外の両方のシナリオで最先端の手法を実現する。
論文 参考訳(メタデータ) (2020-03-06T12:51:09Z) - RTM3D: Real-time Monocular 3D Detection from Object Keypoints for
Autonomous Driving [26.216609821525676]
最も成功した3D検出器は、3Dバウンディングボックスから2Dボックスへの投射制約を重要な構成要素としている。
画像空間における3次元境界ボックスの9つの視点キーポイントを予測し、3次元空間における3次元視点と2次元視点の幾何学的関係を利用して、次元、位置、方向を復元する。
提案手法は,KITTIベンチマークの最先端性能を達成しつつ,モノクロ画像の3次元検出を行う最初のリアルタイムシステムである。
論文 参考訳(メタデータ) (2020-01-10T08:29:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。