論文の概要: KFNet: Learning Temporal Camera Relocalization using Kalman Filtering
- arxiv url: http://arxiv.org/abs/2003.10629v1
- Date: Tue, 24 Mar 2020 02:52:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 09:08:21.436185
- Title: KFNet: Learning Temporal Camera Relocalization using Kalman Filtering
- Title(参考訳): KFNet:Kalmanフィルタを用いた時間カメラ再ローカライズ学習
- Authors: Lei Zhou, Zixin Luo, Tianwei Shen, Jiahui Zhang, Mingmin Zhen, Yao
Yao, Tian Fang and Long Quan
- Abstract要約: KFNetは、オンラインカメラ再ローカライズのためのKalmanフィルタを組み込んだネットワークアーキテクチャである。
KFNetはシーン座標回帰問題を時間領域に拡張し、ポーズ決定のための2Dおよび3D対応を確立する。
複数の再ローカライゼーションベンチマークの実験では、ワンショットと時間的再ローカライゼーションの両方のアプローチの最上部で、KFNetの精度が高いことが示されている。
- 参考スコア(独自算出の注目度): 45.940340184884015
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Temporal camera relocalization estimates the pose with respect to each video
frame in sequence, as opposed to one-shot relocalization which focuses on a
still image. Even though the time dependency has been taken into account,
current temporal relocalization methods still generally underperform the
state-of-the-art one-shot approaches in terms of accuracy. In this work, we
improve the temporal relocalization method by using a network architecture that
incorporates Kalman filtering (KFNet) for online camera relocalization. In
particular, KFNet extends the scene coordinate regression problem to the time
domain in order to recursively establish 2D and 3D correspondences for the pose
determination. The network architecture design and the loss formulation are
based on Kalman filtering in the context of Bayesian learning. Extensive
experiments on multiple relocalization benchmarks demonstrate the high accuracy
of KFNet at the top of both one-shot and temporal relocalization approaches.
Our codes are released at https://github.com/zlthinker/KFNet.
- Abstract(参考訳): 時間的カメラ再ローカライズは静止画に焦点を当てたワンショット再ローカライズとは対照的に、各ビデオフレームに対するポーズを連続的に推定する。
時間依存性を考慮すると、現在の時間的再ローカライズ手法は、精度の面では、最先端のワンショットアプローチよりも一般的には劣っている。
そこで本研究では,Kalman Filtering (KFNet) を組み込んだネットワークアーキテクチャを用いて,時間的再ローカライズ手法を改善する。
特に、kfnetはポーズ決定のために2dおよび3d対応を再帰的に確立するためにシーン座標回帰問題を時間領域に拡張する。
ネットワークアーキテクチャの設計と損失の定式化は、ベイズ学習の文脈におけるカルマンフィルタに基づいている。
複数の再ローカライゼーションベンチマークの大規模な実験は、KFNetの1ショットおよび時間的再ローカライズアプローチの頂点における高い精度を示している。
私たちのコードはhttps://github.com/zlthinker/kfnetでリリースされています。
関連論文リスト
- Hierarchical Temporal Context Learning for Camera-based Semantic Scene Completion [57.232688209606515]
カメラによるセマンティックシーンの補完を改善するための,新たな時間的文脈学習パラダイムであるHTCLを提案する。
提案手法は,Semantic KITTIベンチマークで1st$をランク付けし,mIoUの点でLiDARベースの手法を超えている。
論文 参考訳(メタデータ) (2024-07-02T09:11:17Z) - Scene Coordinate Reconstruction: Posing of Image Collections via Incremental Learning of a Relocalizer [21.832249148699397]
シーンを描写した画像からカメラパラメータを推定するタスクに対処する。
学習に基づく再ローカライズ手法であるシーン座標回帰により、未提示画像から暗黙的なニューラルシーン表現を構築することができることを示す。
論文 参考訳(メタデータ) (2024-04-22T17:02:33Z) - Visual Localization via Few-Shot Scene Region Classification [84.34083435501094]
ビジュアル(再)ローカライゼーションは、既知のシーンでキャプチャされたクエリイメージの6-DoFカメラのポーズを推定する問題に対処する。
画像画素からシーン座標へのマッピングを記憶することで,この問題を解決する。
シーン領域の分類手法を提案する。
論文 参考訳(メタデータ) (2022-08-14T22:39:02Z) - On the Limits of Pseudo Ground Truth in Visual Camera Re-localisation [83.29404673257328]
再ローカライゼーションベンチマークは、各メソッドが参照アルゴリズムの結果をいかにうまく再現するかを測定する。
このことは、参照アルゴリズムの選択がある種の再ローカライゼーション手法を好むかどうかを問うものである。
本稿では、広く使われている2つの再ローカライゼーションデータセットを分析し、参照アルゴリズムの選択によって評価結果が実際に異なることを示す。
論文 参考訳(メタデータ) (2021-09-01T12:01:08Z) - Visual Camera Re-Localization Using Graph Neural Networks and Relative
Pose Supervision [31.947525258453584]
視覚再局在化とは、単一の画像を入力として、予め記録された環境に対してカメラの位置と向きを推定する手段である。
提案手法は特別な仮定をほとんど行わず,訓練やテストでは極めて軽量である。
標準の屋内(7-Scenes)と屋外(Cambridge Landmarks)のカメラ再ローカリゼーションベンチマークに対するアプローチの有効性を検証する。
論文 参考訳(メタデータ) (2021-04-06T14:29:03Z) - Learning Camera Localization via Dense Scene Matching [45.0957383562443]
カメラローカライゼーションは、rgb画像から6つのdofカメラポーズを推定することを目的としている。
最近の学習に基づくアプローチは、構造を特定の畳み込みニューラルネットワーク(CNN)にエンコードする
濃密マッチング(DSM)を用いた新しいカメラローカライズ手法を提案する。
論文 参考訳(メタデータ) (2021-03-31T03:47:42Z) - Back to the Feature: Learning Robust Camera Localization from Pixels to
Pose [114.89389528198738]
画像と3Dモデルから正確な6-DoFのポーズを推定するシーンに依存しないニューラルネットワークPixLocを導入する。
このシステムは、粗いポーズ前の大きな環境でもローカライズできるが、スパース特徴マッチングの精度も向上する。
論文 参考訳(メタデータ) (2021-03-16T17:40:12Z) - Reference Pose Generation for Long-term Visual Localization via Learned
Features and View Synthesis [88.80710311624101]
本稿では,3次元モデルのレンダリングと実画像の特徴マッチングに基づく参照ポーズを生成するための半自動アプローチを提案する。
我々は、Aachen Day-Nightデータセットの夜間参照ポーズを大幅に改善し、最先端の視覚的ローカライゼーション手法が、オリジナルの参照ポーズによって予測されるよりも優れた(最大47%の)性能を示すことを示した。
論文 参考訳(メタデータ) (2020-05-11T15:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。