論文の概要: Improved 3D Point-Line Mapping Regression for Camera Relocalization
- arxiv url: http://arxiv.org/abs/2502.20814v1
- Date: Fri, 28 Feb 2025 07:57:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-03 13:41:55.805671
- Title: Improved 3D Point-Line Mapping Regression for Camera Relocalization
- Title(参考訳): カメラ再ローカライゼーションのための3次元ポイントラインマッピングレグレッションの改良
- Authors: Bach-Thuan Bui, Huy-Hoang Bui, Yasuyuki Fujii, Dinh-Tuan Tran, Joo-Ho Lee,
- Abstract要約: カメラ再配置のための3Dポイントとラインマッピングのレグレッションを改善するための新しいアプローチを提案する。
ローカライゼーションのためにそれらを組み合わせる前に、各機能を独立して優先順位付けすることを学ぶ新しいアーキテクチャを導入する。
実験結果から,カメラ再配置における3次元マップポイントとラインレグレッション性能を著しく向上することが示された。
- 参考スコア(独自算出の注目度): 1.2093553114715083
- License:
- Abstract: In this paper, we present a new approach for improving 3D point and line mapping regression for camera re-localization. Previous methods typically rely on feature matching (FM) with stored descriptors or use a single network to encode both points and lines. While FM-based methods perform well in large-scale environments, they become computationally expensive with a growing number of mapping points and lines. Conversely, approaches that learn to encode mapping features within a single network reduce memory footprint but are prone to overfitting, as they may capture unnecessary correlations between points and lines. We propose that these features should be learned independently, each with a distinct focus, to achieve optimal accuracy. To this end, we introduce a new architecture that learns to prioritize each feature independently before combining them for localization. Experimental results demonstrate that our approach significantly enhances the 3D map point and line regression performance for camera re-localization. The implementation of our method will be publicly available at: https://github.com/ais-lab/pl2map/.
- Abstract(参考訳): 本稿では,カメラ再配置のための3Dポイントとラインマッピングのレグレッションを改善するための新しいアプローチを提案する。
従来のメソッドは通常、格納されたディスクリプタと機能マッチング(FM)を頼りにするか、単一ネットワークを使ってポイントと行をエンコードする。
FMベースの手法は大規模環境ではよく機能するが、マッピングポイントや行数の増加とともに計算コストが上昇する。
逆に、単一のネットワーク内でマッピング機能をエンコードすることを学ぶアプローチは、メモリフットプリントを減少させるが、ポイントと行間の不要な相関を捉えるため、過度に適合する傾向がある。
我々は,これらの特徴をそれぞれ異なる焦点で独立して学習し,最適な精度を実現することを提案する。
この目的のために、ローカライゼーションのためにそれらを組み合わせる前に、各機能を独立して優先順位付けすることを学ぶ新しいアーキテクチャを導入する。
実験により,本手法はカメラ再配置のための3次元マップポイントとラインレグレッション性能を著しく向上させることが示された。
私たちのメソッドの実装は、https://github.com/ais-lab/pl2map/で公開されます。
関連論文リスト
- Representing 3D sparse map points and lines for camera relocalization [1.2974519529978974]
軽量ニューラルネットワークが3Dポイントとラインの両方の特徴を表現するためにどのように学習できるかを示す。
テストにおいて,本手法は,最先端の学習手法に対する最も顕著な向上を図っている。
論文 参考訳(メタデータ) (2024-02-28T03:07:05Z) - Improved Scene Landmark Detection for Camera Localization [11.56648898250606]
シーンランドマーク検出(SLD)に基づく手法が近年提案されている。
畳み込みニューラルネットワーク(CNN)をトレーニングして、所定の、健全でシーン固有の3Dポイントやランドマークを検出する。
トレーニング中はモデル容量とノイズラベルが不足していたため,精度の差がみられた。
論文 参考訳(メタデータ) (2024-01-31T18:59:12Z) - SeMLaPS: Real-time Semantic Mapping with Latent Prior Networks and
Quasi-Planar Segmentation [53.83313235792596]
本稿では,RGB-Dシーケンスからのリアルタイム意味マッピングのための新しい手法を提案する。
2DニューラルネットワークとSLAMシステムに基づく3Dネットワークと3D占有マッピングを組み合わせる。
本システムは,2D-3Dネットワークベースシステムにおいて,最先端のセマンティックマッピング品質を実現する。
論文 参考訳(メタデータ) (2023-06-28T22:36:44Z) - 3D Line Mapping Revisited [86.13455066577657]
LIMAPは、3Dラインマッピングのためのライブラリで、多視点画像から3Dラインマップを堅牢かつ効率的に作成する。
私たちのコードは、既存のポイントベースのStructure-from-Motionメソッドとシームレスに統合されます。
私たちの堅牢な3Dラインマップは、新たな研究方向も開きます。
論文 参考訳(メタデータ) (2023-03-30T16:14:48Z) - LFM-3D: Learnable Feature Matching Across Wide Baselines Using 3D
Signals [9.201550006194994]
学習可能なマーカは、画像ペア間のコビジュアビリティの小さな領域だけが存在する場合、しばしば性能が低下する。
グラフニューラルネットワークに基づくモデルを用いた学習可能な特徴マッチングフレームワーク LFM-3D を提案する。
その結果,画像対の相対的ポーズ精度が向上し,画像対の相対的ポーズ精度が向上することがわかった。
論文 参考訳(メタデータ) (2023-03-22T17:46:27Z) - Pixel-Perfect Structure-from-Motion with Featuremetric Refinement [96.73365545609191]
複数視点からの低レベル画像情報を直接アライメントすることで、動きからの2つの重要なステップを洗練する。
これにより、様々なキーポイント検出器のカメラポーズとシーン形状の精度が大幅に向上する。
本システムは,大規模な画像コレクションに容易にスケールできるので,クラウドソースによる大規模なローカライゼーションを実現することができる。
論文 参考訳(メタデータ) (2021-08-18T17:58:55Z) - Soft Expectation and Deep Maximization for Image Feature Detection [68.8204255655161]
質問をひっくり返し、まず繰り返し可能な3Dポイントを探し、次に検出器を訓練して画像空間にローカライズする、反復的半教師付き学習プロセスSEDMを提案する。
以上の結果から,sdmを用いてトレーニングした新しいモデルでは,シーン内の下位3dポイントのローカライズが容易になった。
論文 参考訳(メタデータ) (2021-04-21T00:35:32Z) - Back to the Feature: Learning Robust Camera Localization from Pixels to
Pose [114.89389528198738]
画像と3Dモデルから正確な6-DoFのポーズを推定するシーンに依存しないニューラルネットワークPixLocを導入する。
このシステムは、粗いポーズ前の大きな環境でもローカライズできるが、スパース特徴マッチングの精度も向上する。
論文 参考訳(メタデータ) (2021-03-16T17:40:12Z) - Graph-PCNN: Two Stage Human Pose Estimation with Graph Pose Refinement [54.29252286561449]
グラフPCNNと呼ばれる2段階のグラフベースおよびモデルに依存しないフレームワークを提案する。
第1段階では、粗局化結果を得るために熱マップ回帰ネットワークを適用し、ガイドポイントと呼ばれる一連の提案キーポイントをサンプリングする。
第2段階では、各案内点について、ローカライゼーションにより異なる視覚特徴を抽出する。
ガイドされた点間の関係は、より正確なローカライゼーション結果を得るためにグラフポーズ精製モジュールによって探索される。
論文 参考訳(メタデータ) (2020-07-21T04:59:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。