論文の概要: 3D3L: Deep Learned 3D Keypoint Detection and Description for LiDARs
- arxiv url: http://arxiv.org/abs/2103.13808v1
- Date: Thu, 25 Mar 2021 13:08:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-26 13:26:47.321721
- Title: 3D3L: Deep Learned 3D Keypoint Detection and Description for LiDARs
- Title(参考訳): 3D3L:LiDARの深層学習によるキーポイント検出と記述
- Authors: Dominc Streiff, Lukas Bernreiter, Florian Tschopp, Marius Fehr, Roland
Siegwart
- Abstract要約: 本稿では3D3Lの基盤として最先端の2D特徴ネットワークを使用し,LiDAR領域の画像の強度と深さを両立させる。
以上の結果から,lidarスキャン画像から抽出されたキーポイントとディスクリプタは,各ベンチマーク指標において最先端を上回っていた。
- 参考スコア(独自算出の注目度): 25.73598441491818
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the advent of powerful, light-weight 3D LiDARs, they have become the
hearth of many navigation and SLAM algorithms on various autonomous systems.
Pointcloud registration methods working with unstructured pointclouds such as
ICP are often computationally expensive or require a good initial guess.
Furthermore, 3D feature-based registration methods have never quite reached the
robustness of 2D methods in visual SLAM. With the continuously increasing
resolution of LiDAR range images, these 2D methods not only become applicable
but should exploit the illumination-independent modalities that come with it,
such as depth and intensity. In visual SLAM, deep learned 2D features and
descriptors perform exceptionally well compared to traditional methods. In this
publication, we use a state-of-the-art 2D feature network as a basis for 3D3L,
exploiting both intensity and depth of LiDAR range images to extract powerful
3D features. Our results show that these keypoints and descriptors extracted
from LiDAR scan images outperform state-of-the-art on different benchmark
metrics and allow for robust scan-to-scan alignment as well as global
localization.
- Abstract(参考訳): 強力で軽量な3D LiDARが登場し、様々な自律システムにおける多くのナビゲーションとSLAMアルゴリズムの好機となった。
ICPのような非構造化のポイントクラウドを扱うポイントクラウド登録手法は、しばしば計算コストがかかる。
さらに、3D特徴量に基づく登録手法は、視覚SLAMにおける2D手法の堅牢性には達していない。
LiDARレンジ画像の解像度が継続的に高められているため、これらの2D手法は適用できるだけでなく、奥行きや強度など、それに伴う照明に依存しないモダリティを活用すべきである。
ビジュアルSLAMでは、ディープラーニングの2D特徴と記述子は従来の手法に比べて非常によく機能する。
本稿では,3d3lの基盤として最先端の2d特徴ネットワークを用い,lidarレンジ画像の強度と深さを活用し,強力な3d特徴を抽出する。
以上の結果から,LiDARスキャン画像から抽出したこれらのキーポイントとディスクリプタは,異なるベンチマーク指標で精度良く動作し,ロバストなスキャン・スキャンアライメントとグローバルなローカライゼーションを可能にした。
関連論文リスト
- BIP3D: Bridging 2D Images and 3D Perception for Embodied Intelligence [11.91274849875519]
画像中心の3次元知覚モデルBIP3Dを導入し,点中心の手法の限界を克服する。
我々は、事前学習された2次元視覚基盤モデルを利用して意味理解を強化し、空間理解を改善するために空間拡張モジュールを導入する。
我々の実験では、BIP3Dは、EmbodiedScanベンチマークで現在の最先端結果より優れており、3D検出タスクでは5.69%、視覚的グラウンドタスクでは15.25%の改善が達成されている。
論文 参考訳(メタデータ) (2024-11-22T11:35:42Z) - Weakly Supervised Monocular 3D Detection with a Single-View Image [58.57978772009438]
モノクロ3D検出は、単一視点画像からの正確な3Dオブジェクトのローカライゼーションを目的としている。
SKD-WM3Dは弱い教師付き単分子3D検出フレームワークである。
我々は,SKD-WM3Dが最先端技術を超え,多くの完全教師付き手法と同等であることを示した。
論文 参考訳(メタデータ) (2024-02-29T13:26:47Z) - OpenSight: A Simple Open-Vocabulary Framework for LiDAR-Based Object
Detection [41.24059083441953]
OpenSightは、LiDARベースのオープン語彙検出のためのより高度な2D-3Dモデリングフレームワークである。
提案手法は,広く使用されている3次元検出ベンチマークにおいて,最先端のオープン語彙性能を確立する。
論文 参考訳(メタデータ) (2023-12-12T07:49:30Z) - MinkLoc3D-SI: 3D LiDAR place recognition with sparse convolutions,
spherical coordinates, and intensity [1.1549572298362785]
我々は3次元LiDAR測定の強度を処理するスパース畳み込みベースのソリューションであるMinkLoc3D-SIを紹介する。
実験の結果, 3次元LiDARによる単一スキャンの結果と, 高度な一般化能力が得られた。
MinkLoc3D-SIは3D LiDARから得られた単一のスキャンに適しており、自動運転車に適用できる。
論文 参考訳(メタデータ) (2021-12-13T10:21:34Z) - LIGA-Stereo: Learning LiDAR Geometry Aware Representations for
Stereo-based 3D Detector [80.7563981951707]
本稿では,LIGA-Stereoによるステレオ3次元検出器の学習について,LiDARに基づく検出モデルの高レベルな幾何認識表現の指導の下で提案する。
現状のステレオ検出器と比較して,車,歩行者,サイクリストの3次元検出性能は,それぞれ10.44%,5.69%,5.97%向上した。
論文 参考訳(メタデータ) (2021-08-18T17:24:40Z) - 3D-to-2D Distillation for Indoor Scene Parsing [78.36781565047656]
大規模3次元データリポジトリから抽出した3次元特徴を有効活用し,RGB画像から抽出した2次元特徴を向上する手法を提案する。
まず,事前学習した3Dネットワークから3D知識を抽出して2Dネットワークを監督し,トレーニング中の2D特徴からシミュレーションされた3D特徴を学習する。
次に,2次元の正規化方式を設計し,2次元特徴と3次元特徴のキャリブレーションを行った。
第3に,非ペアの3dデータを用いたトレーニングのフレームワークを拡張するために,意味を意識した対向的トレーニングモデルを設計した。
論文 参考訳(メタデータ) (2021-04-06T02:22:24Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z) - RoIFusion: 3D Object Detection from LiDAR and Vision [7.878027048763662]
本稿では,3次元関心領域(RoI)の集合を点雲から対応する画像の2次元ロIに投影することで,新しい融合アルゴリズムを提案する。
提案手法は,KITTI 3Dオブジェクト検出課題ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2020-09-09T20:23:27Z) - End-to-End Pseudo-LiDAR for Image-Based 3D Object Detection [62.34374949726333]
擬似LiDAR(PL)は、LiDARセンサに基づく手法と安価なステレオカメラに基づく手法の精度ギャップを劇的に減らした。
PLは最先端のディープニューラルネットワークと2D深度マップ出力を3Dポイントクラウド入力に変換することで3Dオブジェクト検出のための3D深度推定を組み合わせている。
我々は、PLパイプライン全体をエンドツーエンドにトレーニングできるように、差別化可能なRepresentation (CoR)モジュールに基づく新しいフレームワークを導入します。
論文 参考訳(メタデータ) (2020-04-07T02:18:38Z) - DSGN: Deep Stereo Geometry Network for 3D Object Detection [79.16397166985706]
画像ベースとLiDARベースの3Dオブジェクト検出器の間には大きなパフォーマンスギャップがある。
我々の手法であるDeep Stereo Geometry Network (DSGN)は,このギャップを著しく低減する。
初めて、シンプルで効果的な1段ステレオベースの3D検出パイプラインを提供する。
論文 参考訳(メタデータ) (2020-01-10T11:44:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。