論文の概要: KDD-LOAM: Jointly Learned Keypoint Detector and Descriptors Assisted
LiDAR Odometry and Mapping
- arxiv url: http://arxiv.org/abs/2309.15394v1
- Date: Wed, 27 Sep 2023 04:10:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-28 16:46:00.974100
- Title: KDD-LOAM: Jointly Learned Keypoint Detector and Descriptors Assisted
LiDAR Odometry and Mapping
- Title(参考訳): KDD-LOAM:LiDARオドメトリーとマッピングを併用した共同学習型キーポイント検出器とディスクリプタ
- Authors: Renlang Huang, Minglei Zhao, Jiming Chen, and Liang Li
- Abstract要約: 確率的検出損失を有するマルチタスク完全畳み込みネットワークに基づく密結合型キーポイント検出器とディスクリプタを提案する。
屋内および屋外の両方のデータセットで実験したところ、TCKDDはポイントクラウドの登録において最先端のパフォーマンスを達成することがわかった。
また、キーポイント検出器とディスクリプタ支援LiDAR odometry and Mapping framework (KDD-LOAM) を設計し、その実時間オドメトリはキーポイント記述子マッチングに基づくRANSACに依存している。
- 参考スコア(独自算出の注目度): 9.609585217048664
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sparse keypoint matching based on distinct 3D feature representations can
improve the efficiency and robustness of point cloud registration. Existing
learning-based 3D descriptors and keypoint detectors are either independent or
loosely coupled, so they cannot fully adapt to each other. In this work, we
propose a tightly coupled keypoint detector and descriptor (TCKDD) based on a
multi-task fully convolutional network with a probabilistic detection loss. In
particular, this self-supervised detection loss fully adapts the keypoint
detector to any jointly learned descriptors and benefits the self-supervised
learning of descriptors. Extensive experiments on both indoor and outdoor
datasets show that our TCKDD achieves state-of-the-art performance in point
cloud registration. Furthermore, we design a keypoint detector and
descriptors-assisted LiDAR odometry and mapping framework (KDD-LOAM), whose
real-time odometry relies on keypoint descriptor matching-based RANSAC. The
sparse keypoints are further used for efficient scan-to-map registration and
mapping. Experiments on KITTI dataset demonstrate that KDD-LOAM significantly
surpasses LOAM and shows competitive performance in odometry.
- Abstract(参考訳): 異なる3d特徴表現に基づくスパースキーポイントマッチングは、ポイントクラウド登録の効率とロバスト性を向上させる。
既存の学習ベースの3D記述子とキーポイント検出器は独立あるいは疎結合であるため、互いに完全に適応することはできない。
本研究では,確率的検出損失を有するマルチタスク完全畳み込みネットワークに基づく,密結合型キーポイント検出器とディスクリプタ(TCKDD)を提案する。
特に、この自己教師付き検出損失は、キーポイント検出器を任意の共同学習ディスクリプタに完全に適合させ、ディスクリプタの自己教師付き学習の恩恵を受ける。
屋内および屋外のデータセットにおける広範囲な実験により、tckddがポイントクラウド登録において最先端のパフォーマンスを達成していることが示された。
さらに,リアルタイムオドメトリがキーポイント記述子マッチングベースのransacに依存する,kdd-loam (keypoint detector and descriptor-assisted lidar odometry and mapping framework) を設計した。
スパースキーポイントは、効率的なscan-to-map登録とマッピングのために使われる。
KITTIデータセットの実験では、KDD-LOAMはLOAMを大幅に上回り、オドメトリーにおける競合性能を示す。
関連論文リスト
- D3Former: Jointly Learning Repeatable Dense Detectors and
Feature-enhanced Descriptors via Saliency-guided Transformer [14.056531181678467]
我々は、リピータブルなtextbfDetector と機能強化された textbfDescriptors の合同学習を必要とする textitD3Former と呼ばれるサリエンシ誘導型 Transtextbfformer を導入する。
提案手法は,常に最先端のクラウドマッチング手法より優れている。
論文 参考訳(メタデータ) (2023-12-20T12:19:17Z) - Improving the matching of deformable objects by learning to detect
keypoints [6.4587163310833855]
本研究では,非剛性画像対応タスクにおける正しいマッチング数を増やすための新しい学習キーポイント検出手法を提案する。
我々はエンドツーエンドの畳み込みニューラルネットワーク(CNN)をトレーニングし、考慮された記述子により適したキーポイント位置を見つける。
実験により,本手法は検出手法と併用して多数の記述子の平均マッチング精度を向上させることを示した。
また,本手法を,現在利用可能な最も優れたキーポイント検出器と同等に動作する複雑な実世界のタスクオブジェクト検索に適用する。
論文 参考訳(メタデータ) (2023-09-01T13:02:19Z) - Learning Feature Matching via Matchable Keypoint-Assisted Graph Neural
Network [52.29330138835208]
画像のペア間の局所的な特徴の正確なマッチングは、コンピュータビジョンの課題である。
従来の研究では、注意に基づくグラフニューラルネットワーク(GNN)と、画像内のキーポイントに完全に接続されたグラフを使用するのが一般的だった。
本稿では,非繰り返しキーポイントをバイパスし,マッチング可能なキーポイントを利用してメッセージパッシングを誘導する,疎注意に基づくGNNアーキテクチャであるMaKeGNNを提案する。
論文 参考訳(メタデータ) (2023-07-04T02:50:44Z) - 3DMODT: Attention-Guided Affinities for Joint Detection & Tracking in 3D
Point Clouds [95.54285993019843]
本稿では,3次元点雲における複数物体の同時検出と追跡手法を提案する。
本モデルでは,複数のフレームを用いた時間情報を利用してオブジェクトを検出し,一つのネットワーク上で追跡する。
論文 参考訳(メタデータ) (2022-11-01T20:59:38Z) - SASA: Semantics-Augmented Set Abstraction for Point-based 3D Object
Detection [78.90102636266276]
SASA(Semantics-Augmented Set Abstraction)と呼ばれる新しい集合抽象化手法を提案する。
そこで本研究では, 推定点前景スコアに基づいて, より重要な前景点の維持を支援するセマンティックス誘導点サンプリングアルゴリズムを提案する。
実際には、SASAは、前景オブジェクトに関連する貴重な点を識別し、ポイントベースの3D検出のための特徴学習を改善するのに有効である。
論文 参考訳(メタデータ) (2022-01-06T08:54:47Z) - UPDesc: Unsupervised Point Descriptor Learning for Robust Registration [54.95201961399334]
UPDescは、ロバストポイントクラウド登録のためのポイント記述子を学習するための教師なしの方法である。
学習した記述子は既存の教師なし手法よりも優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2021-08-05T17:11:08Z) - HDD-Net: Hybrid Detector Descriptor with Mutual Interactive Learning [24.13425816781179]
局所的特徴抽出は、SLAMや3D再構成、ARアプリケーションといった分野の進歩により、現在も活発な研究領域である。
両抽出を個別に処理し,学習過程における相互作用に焦点を当てる手法を提案する。
我々は,カメラのローカライゼーション作業に匹敵せず,HPatchの画像マッチングと3次元再構成品質の観点から,技術状況の改善を示す。
論文 参考訳(メタデータ) (2020-05-12T13:55:04Z) - D3Feat: Joint Learning of Dense Detection and Description of 3D Local
Features [51.04841465193678]
私たちは3Dポイントクラウドに3D完全畳み込みネットワークを活用しています。
本稿では,3次元点ごとに検出スコアと記述特徴の両方を密に予測する,新しい,実践的な学習機構を提案する。
本手法は,屋内と屋外の両方のシナリオで最先端の手法を実現する。
論文 参考訳(メタデータ) (2020-03-06T12:51:09Z) - 3D Object Detection From LiDAR Data Using Distance Dependent Feature
Extraction [7.04185696830272]
本研究は、LiDAR点雲の性質を遠距離で考慮し、3次元物体検出器の改良を提案する。
その結果、近距離および長距離オブジェクトのための個別ネットワークのトレーニングは、すべてのKITTIベンチマークの困難さに対するパフォーマンスを高めることが示された。
論文 参考訳(メタデータ) (2020-03-02T13:16:35Z) - CAE-LO: LiDAR Odometry Leveraging Fully Unsupervised Convolutional
Auto-Encoder for Interest Point Detection and Feature Description [10.73965992177754]
2D CAEを用いた球面リングデータから利得点を検出し、3D CAEを用いたマルチレゾリューションボクセルモデルから特徴点を抽出する、完全に教師なしコナールオートエンコーダベースのLiDARオドメトリー(CAE-LO)を提案する。
1)KITTIデータセットに基づく実験により、未構造化シナリオにおける一致の成功率を改善するために、より局所的な詳細を抽出できることが示され、我々の特徴は、マッチング不整合比で50%以上、最先端の成果を上げている。
論文 参考訳(メタデータ) (2020-01-06T01:26:28Z) - Learning and Matching Multi-View Descriptors for Registration of Point
Clouds [48.25586496457587]
まず,複数視点の画像から学習した多視点局所記述子を3次元キーポイント記述のために提案する。
そこで我々は,効率的な推論に基づいて,外乱マッチングを拒否することを目的とした,ロバストなマッチング手法を開発した。
我々は、パブリックスキャンとマルチビューステレオデータセットの登録に対する我々のアプローチの強化を実証した。
論文 参考訳(メタデータ) (2018-07-16T01:58:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。