論文の概要: Distinctive 3D local deep descriptors
- arxiv url: http://arxiv.org/abs/2009.00258v2
- Date: Mon, 28 Dec 2020 14:01:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 01:18:49.769258
- Title: Distinctive 3D local deep descriptors
- Title(参考訳): 特有な3次元局所深層ディスクリプタ
- Authors: Fabio Poiesi and Davide Boscaini
- Abstract要約: ポイントクラウドパッチは抽出され、推定されたローカル参照フレームに対して正準化され、PointNetベースのディープニューラルネットワークによって符号化される。
我々は、異なるセンサを用いて再構成された点雲からなる複数のデータセットにおいて、DIPを、別の手作り、ディープディスクリプタと比較し、比較した。
- 参考スコア(独自算出の注目度): 2.512827436728378
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a simple but yet effective method for learning distinctive 3D
local deep descriptors (DIPs) that can be used to register point clouds without
requiring an initial alignment. Point cloud patches are extracted,
canonicalised with respect to their estimated local reference frame and encoded
into rotation-invariant compact descriptors by a PointNet-based deep neural
network. DIPs can effectively generalise across different sensor modalities
because they are learnt end-to-end from locally and randomly sampled points.
Because DIPs encode only local geometric information, they are robust to
clutter, occlusions and missing regions. We evaluate and compare DIPs against
alternative hand-crafted and deep descriptors on several indoor and outdoor
datasets consisting of point clouds reconstructed using different sensors.
Results show that DIPs (i) achieve comparable results to the state-of-the-art
on RGB-D indoor scenes (3DMatch dataset), (ii) outperform state-of-the-art by a
large margin on laser-scanner outdoor scenes (ETH dataset), and (iii)
generalise to indoor scenes reconstructed with the Visual-SLAM system of
Android ARCore. Source code: https://github.com/fabiopoiesi/dip.
- Abstract(参考訳): 本稿では,初期アライメントを必要とせず,ポイントクラウドの登録に使用可能な,特異な3dローカルディープディスクリプタ(dips)を学習するための単純かつ効果的な手法を提案する。
ポイントクラウドパッチを抽出し、推定された局所参照フレームに対して正準化し、ポイントネットベースのディープニューラルネットワークにより回転不変コンパクトディスクリプタに符号化する。
ディップは、局所的およびランダムにサンプリングされた点からエンドツーエンドに学習されるため、異なるセンサモダリティを効果的に一般化することができる。
DIPは局所幾何学的情報のみを符号化するので、乱雑、隠蔽、欠落する領域に対して堅牢である。
異なるセンサを用いて再構成された点雲からなる屋内および屋外のいくつかのデータセットにおける,手作りおよび深層ディスクリプタに対するディップの評価と比較を行った。
結果から ディップスは
(i)RGB-D屋内シーン(DMatchデータセット)に匹敵する結果が得られる。
(ii)レーザースキャン屋外シーン(ethデータセット)のマージンを大きく上回っていること、及び
(III)Android ARCoreのVisual-SLAMシステムで再構成された屋内シーンを一般化する。
ソースコード: https://github.com/fabiopoiesi/dip。
関連論文リスト
- Uni3DETR: Unified 3D Detection Transformer [75.35012428550135]
同一の枠組み内での屋内および屋外検出に対処する統合された3次元検出器を提案する。
具体的には,物体の予測に点-ボクセル相互作用を用いた検出変換器を用いる。
そこで我々は,密集した屋内シーンのグローバル情報と,大域の狭い屋外シーンのローカル情報とを十分に活用する問合せポイントの混合を提案する。
論文 参考訳(メタデータ) (2023-10-09T13:20:20Z) - V-DETR: DETR with Vertex Relative Position Encoding for 3D Object
Detection [73.37781484123536]
DETRフレームワークを用いた点雲のための高性能な3次元物体検出器を提案する。
限界に対処するため,新しい3次元相対位置(3DV-RPE)法を提案する。
挑戦的なScanNetV2ベンチマークで例外的な結果を示す。
論文 参考訳(メタデータ) (2023-08-08T17:14:14Z) - Mini-PointNetPlus: a local feature descriptor in deep learning model for
3d environment perception [7.304195370862869]
そこで我々は,PointNet へのプラグイン・アンド・プレイの代替として,新しいローカル機能記述子 mini-PointNetPlus を提案する。
我々の基本的な考え方は、データポイントを考慮された個々の特徴に別々に投影することであり、それぞれが置換不変となる。
提案する記述子の特徴を十分に活用するため,3次元知覚の性能向上実験を行った。
論文 参考訳(メタデータ) (2023-07-25T07:30:28Z) - Flattening-Net: Deep Regular 2D Representation for 3D Point Cloud
Analysis [66.49788145564004]
我々は、任意の幾何学と位相の不規則な3次元点雲を表現するために、Flattning-Netと呼ばれる教師なしのディープニューラルネットワークを提案する。
我々の手法は、現在の最先端の競合相手に対して好意的に機能する。
論文 参考訳(メタデータ) (2022-12-17T15:05:25Z) - Generalisable and distinctive 3D local deep descriptors for point cloud
registration [4.619541348328937]
一般化可能かつ独特な3次元局所記述子を学習するための,単純だが効果的な方法を提案する。
点雲パッチは抽出され、その局所参照フレームに対して正準化され、スケールおよび回転不変のコンパクトディスクリプタに符号化される。
我々の記述子は、局所的およびランダムにサンプリングされた点からセンサモードを効果的に一般化することができる。
論文 参考訳(メタデータ) (2021-05-21T14:47:55Z) - SpinNet: Learning a General Surface Descriptor for 3D Point Cloud
Registration [57.28608414782315]
ローカルな特徴を抽出するために、SpinNetと呼ばれる新しい、概念的にはシンプルで、ニューラルなアーキテクチャを導入する。
屋内と屋外の両方の実験では、SpinNetが既存の最先端技術より優れていることが示されている。
論文 参考訳(メタデータ) (2020-11-24T15:00:56Z) - DH3D: Deep Hierarchical 3D Descriptors for Robust Large-Scale 6DoF
Relocalization [56.15308829924527]
生の3D点から直接3次元特徴の検出と記述を共同で学習するシームズネットワークを提案する。
3次元キーポイントを検出するために,局所的な記述子の識別性を教師なしで予測する。
各種ベンチマーク実験により,本手法はグローバルポイントクラウド検索とローカルポイントクラウド登録の両面で競合する結果が得られた。
論文 参考訳(メタデータ) (2020-07-17T20:21:22Z) - Stereo RGB and Deeper LIDAR Based Network for 3D Object Detection [40.34710686994996]
3Dオブジェクト検出は、自動運転のシナリオにおいて新たな課題となっている。
以前の作業では、プロジェクションベースまたはボクセルベースのモデルを使用して3Dポイントクラウドを処理していた。
本稿では,意味情報と空間情報の同時利用が可能なStereo RGBおよびDeeper LIDARフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-09T11:19:24Z) - D3Feat: Joint Learning of Dense Detection and Description of 3D Local
Features [51.04841465193678]
私たちは3Dポイントクラウドに3D完全畳み込みネットワークを活用しています。
本稿では,3次元点ごとに検出スコアと記述特徴の両方を密に予測する,新しい,実践的な学習機構を提案する。
本手法は,屋内と屋外の両方のシナリオで最先端の手法を実現する。
論文 参考訳(メタデータ) (2020-03-06T12:51:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。