論文の概要: Tight-Integration of Feature-Based Relocalization in Monocular Direct
Visual Odometry
- arxiv url: http://arxiv.org/abs/2102.01191v1
- Date: Mon, 1 Feb 2021 21:41:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-03 16:49:40.252974
- Title: Tight-Integration of Feature-Based Relocalization in Monocular Direct
Visual Odometry
- Title(参考訳): 単眼直接視覚オドメトリーにおける特徴量に基づく再局在の密結合
- Authors: Mariia Gladkova, Rui Wang, Niclas Zeller, and Daniel Cremers
- Abstract要約: 本稿では,地図に基づく再局在化をオンラインビジュアル・オドメトリーに統合するためのフレームワークを提案する。
我々は画像特徴をDSO(Direct Sparse Odometry)に統合し、オンライン視覚計測と以前に構築された地図を関連付ける機能マッチングに依存する。
- 参考スコア(独自算出の注目度): 49.89611704653707
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we propose a framework for integrating map-based relocalization
into online direct visual odometry. To achieve map-based relocalization for
direct methods, we integrate image features into Direct Sparse Odometry (DSO)
and rely on feature matching to associate online visual odometry (VO) with a
previously built map. The integration of the relocalization poses is threefold.
Firstly, they are treated as pose priors and tightly integrated into the direct
image alignment of the front-end tracking. Secondly, they are also tightly
integrated into the back-end bundle adjustment. An online fusion module is
further proposed to combine relative VO poses and global relocalization poses
in a pose graph to estimate keyframe-wise smooth and globally accurate poses.
We evaluate our method on two multi-weather datasets showing the benefits of
integrating different handcrafted and learned features and demonstrating
promising improvements on camera tracking accuracy.
- Abstract(参考訳): 本稿では,地図ベースの再局在化をオンラインの直接視覚オドメトリに統合するフレームワークを提案する。
直接手法の地図に基づく再局在化を実現するため,画像特徴を直接スパースオドメトリー(DSO)に統合し,オンライン視覚計測(VO)と以前に構築された地図を関連づけるために特徴マッチングに依存する。
再ローカライゼーションのポーズの統合は3倍である。
まず、ポーズ先行として扱われ、フロントエンド追跡のダイレクトイメージアライメントに密に統合される。
第2に、バックエンドバンドル調整に密に統合される。
オンライン融合モジュールは、相対的なVOポーズとグローバルな再ローカライズポーズをポーズグラフに組み合わせ、キーフレームをスムースかつグローバルに正確なポーズで推定する。
本手法は2つのマルチウェザーデータセットで評価し,手作業と学習の異なる特徴を統合し,カメラ追跡精度の向上が期待できることを示す。
関連論文リスト
- CP-SLAM: Collaborative Neural Point-based SLAM System [54.916578456416204]
本稿では,RGB-D画像シーケンスを用いた協調型暗黙的ニューラルローカライゼーションとマッピング(SLAM)システムを提案する。
これらすべてのモジュールを統一的なフレームワークで実現するために,ニューラルポイントに基づく新しい3次元シーン表現を提案する。
協調的な暗黙的SLAMに対して,一貫性と協調性を改善するために,分散分散型学習戦略を提案する。
論文 参考訳(メタデータ) (2023-11-14T09:17:15Z) - Towards Scalable Multi-View Reconstruction of Geometry and Materials [27.660389147094715]
本稿では,3次元シーンのカメラポーズ,オブジェクト形状,空間変化の両方向反射分布関数(svBRDF)のジョイントリカバリ手法を提案する。
入力は高解像度のRGBD画像であり、アクティブ照明用の点灯付き携帯型ハンドヘルドキャプチャシステムによってキャプチャされる。
論文 参考訳(メタデータ) (2023-06-06T15:07:39Z) - Structure PLP-SLAM: Efficient Sparse Mapping and Localization using
Point, Line and Plane for Monocular, RGB-D and Stereo Cameras [13.693353009049773]
本稿では,PPRモジュールを組み込んだ高機能カメラローカライゼーションを実現するために,ポイント・ライン・クラウドを用いた視界SLAMシステムを提案する。
再構成された線や平面上での複数の実行時最適化を提案することにより,幾何的プリミティブをスケールのあいまいさで再構築するという課題に対処する。
その結果,提案したSLAMはセマンティック機能をしっかりと組み込んで,トラッキングとバックエンドの最適化を強化していることがわかった。
論文 参考訳(メタデータ) (2022-07-13T09:05:35Z) - An Online Semantic Mapping System for Extending and Enhancing Visual
SLAM [2.538209532048867]
本稿では,2次元から3次元の物体検出パイプラインと,生成されたランドマークの高速なデータアソシエーションを用いた,移動型視覚システムのためのリアルタイムセマンティックマッピング手法を提案する。
我々のシステムは,65msの平均反復時間でリアルタイムに到達し,公開データセット上での最先端SLAMのポーズ推定を最大68%向上させることができる。
論文 参考訳(メタデータ) (2022-03-08T09:14:37Z) - A Model for Multi-View Residual Covariances based on Perspective
Deformation [88.21738020902411]
マルチビューSfM, オードメトリ, SLAMセットアップにおける視覚的残差の共分散モデルの導出を行う。
我々は、合成データと実データを用いてモデルを検証し、それを光度および特徴量に基づくバンドル調整に統合する。
論文 参考訳(メタデータ) (2022-02-01T21:21:56Z) - Self-supervised Correlation Mining Network for Person Image Generation [9.505343361614928]
人物画像生成は、ソース画像の非剛性変形を実現することを目的としている。
特徴空間のソース画像を再構成する自己教師付き相関マイニングネットワーク(SCM-Net)を提案する。
クロススケールポーズ変換の忠実度を向上させるために,グラフに基づく身体構造保持損失を提案する。
論文 参考訳(メタデータ) (2021-11-26T03:57:46Z) - Graph-Based 3D Multi-Person Pose Estimation Using Multi-View Images [79.70127290464514]
我々は,タスクを2つの段階,すなわち人物のローカライゼーションとポーズ推定に分解する。
また,効率的なメッセージパッシングのための3つのタスク固有グラフニューラルネットワークを提案する。
提案手法は,CMU Panoptic と Shelf のデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2021-09-13T11:44:07Z) - Deep Hough Voting for Robust Global Registration [52.40611370293272]
6次元変換パラメータ空間におけるハフ投票を利用した実世界の3Dスキャンのペア登録のための効率的なフレームワークを提案する。
提案手法は, 3DMatch と 3DLoMatch のベンチマークにおいて, KITTI odometry データセットで同等の性能を達成しながら, 最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2021-09-09T14:38:06Z) - Similarity-Aware Fusion Network for 3D Semantic Segmentation [87.51314162700315]
本研究では,3次元セマンティックセグメンテーションのための2次元画像と3次元点雲を適応的に融合する類似性認識融合ネットワーク(SAFNet)を提案する。
我々は、入力とバックプロジェクションされた(2Dピクセルから)点雲の間の幾何学的および文脈的類似性を初めて学習する、後期融合戦略を採用している。
SAFNetは、様々なデータ完全性にまたがって、既存の最先端の核融合ベースのアプローチを著しく上回っている。
論文 参考訳(メタデータ) (2021-07-04T09:28:18Z) - Direct-PoseNet: Absolute Pose Regression with Photometric Consistency [16.60612964943876]
本稿では,絶対ポーズ回帰ネットワークと新しいビュー合成に基づく直接マッチングモジュールを組み合わせた再局在化パイプラインを提案する。
当社のネットワークDirect-PoseNetは、7-ScenesベンチマークとLLFFデータセット上の他のすべてのシングルイメージAPRメソッドの中で最先端のパフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-04-08T21:10:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。