論文の概要: MinkLoc3D-SI: 3D LiDAR place recognition with sparse convolutions,
spherical coordinates, and intensity
- arxiv url: http://arxiv.org/abs/2112.06539v1
- Date: Mon, 13 Dec 2021 10:21:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-15 00:35:04.639219
- Title: MinkLoc3D-SI: 3D LiDAR place recognition with sparse convolutions,
spherical coordinates, and intensity
- Title(参考訳): MinkLoc3D-SI: スパース畳み込み, 球面座標, 強度による3次元LiDAR位置認識
- Authors: Kamil \.Zywanowski, Adam Banaszczyk, Micha{\l} R. Nowicki, and Jacek
Komorowski
- Abstract要約: 我々は3次元LiDAR測定の強度を処理するスパース畳み込みベースのソリューションであるMinkLoc3D-SIを紹介する。
実験の結果, 3次元LiDARによる単一スキャンの結果と, 高度な一般化能力が得られた。
MinkLoc3D-SIは3D LiDARから得られた単一のスキャンに適しており、自動運転車に適用できる。
- 参考スコア(独自算出の注目度): 1.1549572298362785
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The 3D LiDAR place recognition aims to estimate a coarse localization in a
previously seen environment based on a single scan from a rotating 3D LiDAR
sensor. The existing solutions to this problem include hand-crafted point cloud
descriptors (e.g., ScanContext, M2DP, LiDAR IRIS) and deep learning-based
solutions (e.g., PointNetVLAD, PCAN, LPDNet, DAGC, MinkLoc3D), which are often
only evaluated on accumulated 2D scans from the Oxford RobotCar dataset. We
introduce MinkLoc3D-SI, a sparse convolution-based solution that utilizes
spherical coordinates of 3D points and processes the intensity of 3D LiDAR
measurements, improving the performance when a single 3D LiDAR scan is used.
Our method integrates the improvements typical for hand-crafted descriptors
(like ScanContext) with the most efficient 3D sparse convolutions (MinkLoc3D).
Our experiments show improved results on single scans from 3D LiDARs (USyd
Campus dataset) and great generalization ability (KITTI dataset). Using
intensity information on accumulated 2D scans (RobotCar Intensity dataset)
improves the performance, even though spherical representation doesn't produce
a noticeable improvement. As a result, MinkLoc3D-SI is suited for single scans
obtained from a 3D LiDAR, making it applicable in autonomous vehicles.
- Abstract(参考訳): 3D LiDAR位置認識は、回転する3D LiDARセンサからの1つのスキャンに基づいて、これまで見られた環境における粗い局所化を推定することを目的としている。
既存のソリューションには、手作りのポイントクラウド記述子(ScanContext、M2DP、LiDAR IRISなど)とディープラーニングベースのソリューション(PointNetVLAD、PCAN、PDNet、DAGC、MinkLoc3Dなど)が含まれており、オックスフォード・ロボカル・データセットから蓄積した2Dスキャンでのみ評価される。
我々は,3次元点の球面座標を利用して3次元LiDAR測定の強度を処理し,単一の3次元LiDARスキャンを用いた場合の性能を向上させるスパース畳み込み法であるMinkLoc3D-SIを紹介する。
提案手法は,手作り記述子(ScanContextなど)と最も効率的な3次元スパース畳み込み(MinkLoc3D)を統合する。
実験では,3次元lidar (usyd campus dataset) とgreat generalization ability (kitti dataset) による単一スキャンの結果が改善された。
蓄積された2dスキャン(robotcar intensity dataset)の強度情報を使用することで、球面表現は目立って改善されないものの、パフォーマンスが向上する。
その結果、MinkLoc3D-SIは3D LiDARから得られた単一のスキャンに適合し、自動運転車に適用できる。
関連論文リスト
- DeepMIF: Deep Monotonic Implicit Fields for Large-Scale LiDAR 3D Mapping [46.80755234561584]
最近の学習ベース手法は,3次元シーンの表面を近似するために,ニューラル暗黙表現と最適化可能な特徴グリッドを統合している。
この作業では、LiDARデータを正確にフィッティングすることから離れ、代わりにネットワークが3D空間で定義された非メトリックモノトニック暗黙フィールドを最適化する。
提案アルゴリズムは,Mai City, Newer College, KITTIベンチマークで得られた複数の量的および知覚的測定値と視覚的結果を用いて,高品質な高密度3Dマッピング性能を実現する。
論文 参考訳(メタデータ) (2024-03-26T09:58:06Z) - Sparse2Dense: Learning to Densify 3D Features for 3D Object Detection [85.08249413137558]
LiDARが生成する点雲は、最先端の3Dオブジェクト検出器の主要な情報源である。
小さい、遠く、不完全な点の少ない物体は、しばしば検出するのが困難である。
Sparse2Denseは、潜在空間における点雲の密度化を学習することで、3D検出性能を効率的に向上する新しいフレームワークである。
論文 参考訳(メタデータ) (2022-11-23T16:01:06Z) - Frustum Fusion: Pseudo-LiDAR and LiDAR Fusion for 3D Detection [0.0]
本稿では,立体対から得られる高精度な点雲と,密度が高いが精度の低い点雲を結合する新しいデータ融合アルゴリズムを提案する。
我々は複数の3次元物体検出法を訓練し、核融合戦略が検出器の性能を継続的に改善することを示す。
論文 参考訳(メタデータ) (2021-11-08T19:29:59Z) - FGR: Frustum-Aware Geometric Reasoning for Weakly Supervised 3D Vehicle
Detection [81.79171905308827]
3Dアノテーションを使わずに点雲中の車両を検出するためのフラストラム対応幾何推論(FGR)を提案する。
本手法は粗い3次元セグメンテーションと3次元バウンディングボックス推定の2段階からなる。
2Dバウンディングボックスとスパースポイントクラウドだけで、3D空間内のオブジェクトを正確に検出できます。
論文 参考訳(メタデータ) (2021-05-17T07:29:55Z) - 3D-to-2D Distillation for Indoor Scene Parsing [78.36781565047656]
大規模3次元データリポジトリから抽出した3次元特徴を有効活用し,RGB画像から抽出した2次元特徴を向上する手法を提案する。
まず,事前学習した3Dネットワークから3D知識を抽出して2Dネットワークを監督し,トレーニング中の2D特徴からシミュレーションされた3D特徴を学習する。
次に,2次元の正規化方式を設計し,2次元特徴と3次元特徴のキャリブレーションを行った。
第3に,非ペアの3dデータを用いたトレーニングのフレームワークを拡張するために,意味を意識した対向的トレーニングモデルを設計した。
論文 参考訳(メタデータ) (2021-04-06T02:22:24Z) - 3D3L: Deep Learned 3D Keypoint Detection and Description for LiDARs [25.73598441491818]
本稿では3D3Lの基盤として最先端の2D特徴ネットワークを使用し,LiDAR領域の画像の強度と深さを両立させる。
以上の結果から,lidarスキャン画像から抽出されたキーポイントとディスクリプタは,各ベンチマーク指標において最先端を上回っていた。
論文 参考訳(メタデータ) (2021-03-25T13:08:07Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z) - D3Feat: Joint Learning of Dense Detection and Description of 3D Local
Features [51.04841465193678]
私たちは3Dポイントクラウドに3D完全畳み込みネットワークを活用しています。
本稿では,3次元点ごとに検出スコアと記述特徴の両方を密に予測する,新しい,実践的な学習機構を提案する。
本手法は,屋内と屋外の両方のシナリオで最先端の手法を実現する。
論文 参考訳(メタデータ) (2020-03-06T12:51:09Z) - DSGN: Deep Stereo Geometry Network for 3D Object Detection [79.16397166985706]
画像ベースとLiDARベースの3Dオブジェクト検出器の間には大きなパフォーマンスギャップがある。
我々の手法であるDeep Stereo Geometry Network (DSGN)は,このギャップを著しく低減する。
初めて、シンプルで効果的な1段ステレオベースの3D検出パイプラインを提供する。
論文 参考訳(メタデータ) (2020-01-10T11:44:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。