論文の概要: Global Localization: Utilizing Relative Spatio-Temporal Geometric
Constraints from Adjacent and Distant Cameras
- arxiv url: http://arxiv.org/abs/2312.00500v1
- Date: Fri, 1 Dec 2023 11:03:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-04 14:54:33.192525
- Title: Global Localization: Utilizing Relative Spatio-Temporal Geometric
Constraints from Adjacent and Distant Cameras
- Title(参考訳): グローバルローカライゼーション : 隣接カメラと遠距離カメラからの相対時空間幾何学的制約の利用
- Authors: Mohammad Altillawi, Zador Pataki, Shile Li and Ziyuan Liu
- Abstract要約: ロボット工学や拡張現実(AR)における多くのコンピュータビジョン応用において、以前にマッピングされた領域でカメラを単一の画像から再ローカライズすることが不可欠である。
本稿では,局所化のためのDeep Networkのトレーニングを指導するために,空間的および時間的制約の新たなネットワークを活用することを提案する。
提案手法は,これらの制約により,比較的少ないあるいは少ない地上3次元座標が利用できる場合に,局所化を学習できることを示す。
- 参考スコア(独自算出の注目度): 7.836516315882875
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Re-localizing a camera from a single image in a previously mapped area is
vital for many computer vision applications in robotics and augmented/virtual
reality. In this work, we address the problem of estimating the 6 DoF camera
pose relative to a global frame from a single image. We propose to leverage a
novel network of relative spatial and temporal geometric constraints to guide
the training of a Deep Network for localization. We employ simultaneously
spatial and temporal relative pose constraints that are obtained not only from
adjacent camera frames but also from camera frames that are distant in the
spatio-temporal space of the scene. We show that our method, through these
constraints, is capable of learning to localize when little or very sparse
ground-truth 3D coordinates are available. In our experiments, this is less
than 1% of available ground-truth data. We evaluate our method on 3 common
visual localization datasets and show that it outperforms other direct pose
estimation methods.
- Abstract(参考訳): 以前マップされた領域の1つの画像からカメラを再ローカライズすることは、ロボット工学や拡張現実/バーチャルリアリティーにおける多くのコンピュータビジョンアプリケーションにとって不可欠である。
本研究では,単一の画像からグローバルフレームに対して6自由度カメラのポーズを推定する問題に対処する。
本稿では,局所化のための深層ネットワークの訓練を導くために,空間的および時間的制約の相対的ネットワークを活用することを提案する。
我々は,隣接するカメラフレームだけでなく,シーンの時空間において遠方にあるカメラフレームから得られる空間的および時間的相対的なポーズ制約を同時に採用する。
提案手法は,これらの制約により,比較的少ないあるいは少ない地上3次元座標が利用できる場合に,局所化を学習できることを示す。
実験では、これは利用可能な地平データの1%以下である。
本手法を3つの共通視定位データセット上で評価し,他の直接姿勢推定法よりも優れていることを示す。
関連論文リスト
- SPVLoc: Semantic Panoramic Viewport Matching for 6D Camera Localization in Unseen Environments [4.2603120588176635]
SPVLocは、クエリ画像の6Dカメラポーズを正確に決定するグローバル屋内ローカライズ手法である。
本手法では、視点カメラのビューポートをローカライズするために、新しいマッチング手法を用いる。
技術手法と比較して位置決め精度が優れており、カメラのポーズの自由度も高いと推定される。
論文 参考訳(メタデータ) (2024-04-16T12:55:15Z) - Implicit Learning of Scene Geometry from Poses for Global Localization [7.077874294016776]
グローバル・ビジュアル・ローカライゼーション(Global visual localization)は、カメラの絶対的なポーズを1つの画像を用いて推定する。
既存の多くのアプローチでは、入力画像から直接6 DoFのポーズを学習する。
本稿では,これらの最小限のラベルを用いてシーンの3次元形状を学習することを提案する。
論文 参考訳(メタデータ) (2023-12-04T16:51:23Z) - MELON: NeRF with Unposed Images in SO(3) [35.093700416540436]
ニューラルネットワークは、非提示画像から最先端の精度でニューラルラジアンス場を再構築でき、対向的アプローチの10倍のビューを必要とすることを示す。
ニューラルネットを用いてポーズ推定を正則化することにより,提案手法は非ポーズ画像から最先端の精度でニューラルレイディアンス場を再構築し,敵のアプローチの10倍のビューを要求できることを示した。
論文 参考訳(メタデータ) (2023-03-14T17:33:39Z) - SPARF: Neural Radiance Fields from Sparse and Noisy Poses [58.528358231885846]
SPARF(Sparse Pose Adjusting Radiance Field)を導入し,新規な視点合成の課題に対処する。
提案手法は、NeRFを共同学習し、カメラのポーズを洗練するために、多視点幾何学的制約を利用する。
論文 参考訳(メタデータ) (2022-11-21T18:57:47Z) - Visual Localization via Few-Shot Scene Region Classification [84.34083435501094]
ビジュアル(再)ローカライゼーションは、既知のシーンでキャプチャされたクエリイメージの6-DoFカメラのポーズを推定する問題に対処する。
画像画素からシーン座標へのマッピングを記憶することで,この問題を解決する。
シーン領域の分類手法を提案する。
論文 参考訳(メタデータ) (2022-08-14T22:39:02Z) - Estimating Egocentric 3D Human Pose in Global Space [70.7272154474722]
本稿では,魚眼カメラを用いた自己中心型3次元体姿勢推定法を提案する。
提案手法は, 定量的, 定性的に, 最先端の手法より優れている。
論文 参考訳(メタデータ) (2021-04-27T20:01:57Z) - Self-supervised Human Detection and Segmentation via Multi-view
Consensus [116.92405645348185]
本稿では,トレーニング中に幾何学的制約を多視点一貫性という形で組み込むマルチカメラフレームワークを提案する。
本手法は,標準ベンチマークから視覚的に外れた画像に対して,最先端の自己監視的人物検出とセグメンテーション技術に勝ることを示す。
論文 参考訳(メタデータ) (2020-12-09T15:47:21Z) - Single View Metrology in the Wild [94.7005246862618]
本研究では,物体の3次元の高さや地上のカメラの高さで表現されるシーンの絶対的なスケールを再現する,単一ビューメロジに対する新しいアプローチを提案する。
本手法は,被写体の高さなどの3Dエンティティによる未知のカメラとの相互作用から,弱い教師付き制約を抑えるために設計されたディープネットワークによって学習されたデータ駆動の先行情報に依存する。
いくつかのデータセットと仮想オブジェクト挿入を含むアプリケーションに対して、最先端の定性的かつ定量的な結果を示す。
論文 参考訳(メタデータ) (2020-07-18T22:31:33Z) - 3D Scene Geometry-Aware Constraint for Camera Localization with Deep
Learning [11.599633757222406]
近年、畳み込みニューラルネットワークに基づくエンドツーエンドのアプローチは、従来の3次元幾何学に基づく手法を達成または超えるように研究されている。
本研究では,絶対カメラポーズ回帰のためのコンパクトネットワークを提案する。
これらの従来の手法から着想を得た3Dシーンの幾何学的制約も、動き、深さ、画像の内容を含むすべての利用可能な情報を活用することによって導入される。
論文 参考訳(メタデータ) (2020-05-13T04:15:14Z) - Multi-View Optimization of Local Feature Geometry [70.18863787469805]
本研究では,複数視点からの局所像の特徴の幾何を,未知のシーンやカメラの幾何を伴わずに精査する問題に対処する。
提案手法は,従来の特徴抽出とマッチングのパラダイムを自然に補完する。
本手法は,手作りと学習の両方の局所的特徴に対して,三角測量とカメラのローカライゼーション性能を常に向上することを示す。
論文 参考訳(メタデータ) (2020-03-18T17:22:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。