論文の概要: i3dLoc: Image-to-range Cross-domain Localization Robust to Inconsistent
Environmental Conditions
- arxiv url: http://arxiv.org/abs/2105.12883v1
- Date: Thu, 27 May 2021 00:13:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-29 10:15:18.312809
- Title: i3dLoc: Image-to-range Cross-domain Localization Robust to Inconsistent
Environmental Conditions
- Title(参考訳): i3dloc:不整合環境にロバストな画像間クロスドメイン局在
- Authors: Peng Yin, Lingyun Xu, Ji Zhang, Sebastian Scherer
- Abstract要約: 本研究では,屋内および屋外の場面における点雲マップに対して,単一カメラのローカライズ方法を提案する。
本手法は,領域間対称な位置記述子を抽出することにより,等角形状の画像を3次元射影にマッチングすることができる。
単一のトレーニングモデルにより、i3dLocはランダムな条件下で、信頼できる視覚的ローカライゼーションを示すことができる。
- 参考スコア(独自算出の注目度): 9.982307144353713
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: We present a method for localizing a single camera with respect to a point
cloud map in indoor and outdoor scenes. The problem is challenging because
correspondences of local invariant features are inconsistent across the domains
between image and 3D. The problem is even more challenging as the method must
handle various environmental conditions such as illumination, weather, and
seasonal changes. Our method can match equirectangular images to the 3D range
projections by extracting cross-domain symmetric place descriptors. Our key
insight is to retain condition-invariant 3D geometry features from limited data
samples while eliminating the condition-related features by a designed
Generative Adversarial Network. Based on such features, we further design a
spherical convolution network to learn viewpoint-invariant symmetric place
descriptors. We evaluate our method on extensive self-collected datasets, which
involve \textit{Long-term} (variant appearance conditions),
\textit{Large-scale} (up to $2km$ structure/unstructured environment), and
\textit{Multistory} (four-floor confined space). Our method surpasses other
current state-of-the-arts by achieving around $3$ times higher place retrievals
to inconsistent environments, and above $3$ times accuracy on online
localization. To highlight our method's generalization capabilities, we also
evaluate the recognition across different datasets. With a single trained
model, i3dLoc can demonstrate reliable visual localization in random
conditions.
- Abstract(参考訳): 本研究では,屋内および屋外シーンにおける点雲マップに対して,単一カメラを位置決めする方法を提案する。
この問題は、局所不変特徴の対応が画像と3Dの領域間で矛盾するためである。
この問題は、照明、天候、季節変化といった様々な環境条件を扱う必要があるため、さらに困難である。
本手法は, クロスドメイン対称位置記述子を抽出し, 等角像を3次元射影と一致させることができる。
我々の重要な洞察は、設計したジェネレーティブ・アドバイサル・ネットワークによる条件関連機能を排除しつつ、限られたデータサンプルから条件不変の3D幾何学的特徴を維持することである。
このような特徴に基づき,さらに球形畳み込みネットワークの設計を行い,視点不変な対称位置記述子を学習する。
提案手法は, 大規模自己コンパイル型データセットにおいて, 外観条件が変化し, 構造/非構造環境が最大2km以上となる, 空間が4フロアに制限された) となる, 自己コンパイル型データセットについて検討した。
本手法は,一貫性のない環境に対して3 倍高い位置検索を実現し,オンラインローカライズにおける3 倍の精度を実現した。
また,提案手法の一般化を強調するために,異なるデータセット間の認識を評価する。
単一のトレーニングモデルにより、i3dLocはランダムな条件下で、信頼できる視覚的ローカライゼーションを示すことができる。
関連論文リスト
- Boosting Cross-Domain Point Classification via Distilling Relational Priors from 2D Transformers [59.0181939916084]
従来の3Dネットワークは主に局所幾何学的詳細に焦点を当て、局所幾何学間の位相構造を無視する。
そこで本稿では,大規模画像上においてよく訓練されたトランスフォーマーから前駆体を抽出する,新しい先駆体蒸留法を提案する。
PointDA-10とSim-to-Realデータセットの実験は、提案手法が点クラウド分類におけるUDAの最先端性能を一貫して達成していることを検証する。
論文 参考訳(メタデータ) (2024-07-26T06:29:09Z) - Coupled Laplacian Eigenmaps for Locally-Aware 3D Rigid Point Cloud Matching [0.0]
局所構造を考慮したグラフラプラシアン固有写像に基づく新しい手法を提案する。
ラプラシアン固有写像の順序と符号のあいまいさに対処するために、結合ラプラシアンと呼ばれる新しい作用素を導入する。
これらの高次元空間間の類似性は、形状に一致するような局所的な意味のあるスコアを与えることを示す。
論文 参考訳(メタデータ) (2024-02-27T10:10:12Z) - Learning to Produce Semi-dense Correspondences for Visual Localization [11.415451542216559]
本研究は,夜間シナリオ,悪天候,季節変化などの要求条件下で視覚的局所化を行うことの課題に対処する。
本稿では,高密度なキーポイントマッチングに基づいて,信頼性の高い半高密度2D-3Dマッチングポイントを抽出する手法を提案する。
ネットワークは幾何学的および視覚的な手がかりを用いて、観測されたキーポイントから観測されていないキーポイントの3D座標を効果的に推測する。
論文 参考訳(メタデータ) (2024-02-13T10:40:10Z) - Occ$^2$Net: Robust Image Matching Based on 3D Occupancy Estimation for
Occluded Regions [14.217367037250296]
Occ$2$Netは、3D占有率を用いて閉塞関係をモデル化し、閉塞領域の一致点を推測する画像マッチング手法である。
本手法は実世界とシミュレーションデータセットの両方で評価し,いくつかの指標における最先端手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-14T13:09:41Z) - FrozenRecon: Pose-free 3D Scene Reconstruction with Frozen Depth Models [67.96827539201071]
本稿では,3次元シーン再構成のための新しいテスト時間最適化手法を提案する。
本手法は5つのゼロショットテストデータセット上で,最先端のクロスデータセット再構築を実現する。
論文 参考訳(メタデータ) (2023-08-10T17:55:02Z) - Flattening-Net: Deep Regular 2D Representation for 3D Point Cloud
Analysis [66.49788145564004]
我々は、任意の幾何学と位相の不規則な3次元点雲を表現するために、Flattning-Netと呼ばれる教師なしのディープニューラルネットワークを提案する。
我々の手法は、現在の最先端の競合相手に対して好意的に機能する。
論文 参考訳(メタデータ) (2022-12-17T15:05:25Z) - MeshLoc: Mesh-Based Visual Localization [54.731309449883284]
シーン表現を構築するために,データベースイメージ間のマッチング機能を必要としない,高密度な3Dメッシュに基づく,より柔軟な代替手段を模索する。
驚くべきことに、ニューラルネットワークのレンダリングステージなしで、これらのメッシュのレンダリングの特徴を抽出するときに、競合的な結果が得られる。
以上の結果から,高密度な3次元モデルに基づく表現は,既存の表現の代替として有望なものであり,今後の研究にとって興味深い,挑戦的な方向性を示すものと考えられる。
論文 参考訳(メタデータ) (2022-07-21T21:21:10Z) - SE(3)-Equivariant Attention Networks for Shape Reconstruction in
Function Space [50.14426188851305]
本稿では,第1のSE(3)-equivariant coordinate-based networkを提案する。
入力を正規格子に整列させる従来の形状再構成法とは対照的に、不規則で無向な点雲を直接操作する。
提案手法は,従来のSO(3)-equivariant法,およびSO(3)-augmented dataで訓練された非equivariant法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-04-05T17:59:15Z) - Multi-View Optimization of Local Feature Geometry [70.18863787469805]
本研究では,複数視点からの局所像の特徴の幾何を,未知のシーンやカメラの幾何を伴わずに精査する問題に対処する。
提案手法は,従来の特徴抽出とマッチングのパラダイムを自然に補完する。
本手法は,手作りと学習の両方の局所的特徴に対して,三角測量とカメラのローカライゼーション性能を常に向上することを示す。
論文 参考訳(メタデータ) (2020-03-18T17:22:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。