論文の概要: A Probabilistic Framework for Visual Localization in Ambiguous Scenes
- arxiv url: http://arxiv.org/abs/2301.02086v1
- Date: Thu, 5 Jan 2023 14:46:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-06 14:37:16.438412
- Title: A Probabilistic Framework for Visual Localization in Ambiguous Scenes
- Title(参考訳): あいまいな場面における視覚局在の確率的枠組み
- Authors: Fereidoon Zangeneh, Leonard Bruns, Amit Dekel, Alessandro Pieropan and
Patric Jensfelt
- Abstract要約: 本稿では,カメラポーズの任意の形状の後部分布を予測する確率的枠組みを提案する。
我々は、予測分布からサンプリングできる変分推論を用いて、カメラポーズ回帰の新たな定式化によってこれを行う。
本手法は,不明瞭なシーンの局所化において,既存の手法よりも優れる。
- 参考スコア(独自算出の注目度): 64.13544430239267
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual localization allows autonomous robots to relocalize when losing track
of their pose by matching their current observation with past ones. However,
ambiguous scenes pose a challenge for such systems, as repetitive structures
can be viewed from many distinct, equally likely camera poses, which means it
is not sufficient to produce a single best pose hypothesis. In this work, we
propose a probabilistic framework that for a given image predicts the
arbitrarily shaped posterior distribution of its camera pose. We do this via a
novel formulation of camera pose regression using variational inference, which
allows sampling from the predicted distribution. Our method outperforms
existing methods on localization in ambiguous scenes. Code and data will be
released at https://github.com/efreidun/vapor.
- Abstract(参考訳): 視覚的ローカライゼーションにより、自律的なロボットは、現在の観察を過去のものと一致させることで、ポーズの追跡を失う際に再ローカライズすることができる。
しかし、あいまいなシーンはそのようなシステムにとって難題となり、反復的な構造は多くの異なる可能性の高いカメラポーズから見ることができ、これは単一の最高のポーズ仮説を作るのに十分ではないことを意味する。
本研究では,任意の画像に対して任意の形状のカメラポーズの後方分布を予測できる確率的枠組みを提案する。
我々は,推定分布からのサンプリングを可能にする変分推論を用いたカメラポーズ回帰の新しい定式化によってこれを行う。
本手法は,不明瞭なシーンの局所化において,既存の手法よりも優れる。
コードとデータはhttps://github.com/efreidun/vaporでリリースされる。
関連論文リスト
- No Pose, No Problem: Surprisingly Simple 3D Gaussian Splats from Sparse Unposed Images [100.80376573969045]
NoPoSplatは、多視点画像から3Dガウスアンによってパラメータ化された3Dシーンを再構成できるフィードフォワードモデルである。
提案手法は,推定時にリアルタイムな3次元ガウス再構成を実現する。
この研究は、ポーズフリーの一般化可能な3次元再構成において大きな進歩をもたらし、実世界のシナリオに適用可能であることを示す。
論文 参考訳(メタデータ) (2024-10-31T17:58:22Z) - Conditional Variational Autoencoders for Probabilistic Pose Regression [45.563533339332615]
観測画像からカメラポーズの後方分布を予測するための確率的手法を提案する。
提案したトレーニング戦略は,画像が与えられたカメラポーズの生成モデルとなり,ポーズ後部分布からサンプルを抽出することができる。
論文 参考訳(メタデータ) (2024-10-07T12:43:50Z) - ADen: Adaptive Density Representations for Sparse-view Camera Pose Estimation [17.097170273209333]
画像からカメラのポーズを復元することは、3Dコンピュータビジョンの基本課題である。
最近のデータ駆動型アプローチは、6DoFカメラのポーズを後退させたり、回転を確率分布として定式化したりすることで、カメラのポーズを直接出力することを目指している。
本稿では, ジェネレータと識別器を用いて2つのフレームワークを統合することを提案する。
論文 参考訳(メタデータ) (2024-08-16T22:45:46Z) - Cameras as Rays: Pose Estimation via Ray Diffusion [54.098613859015856]
カメラのポーズを推定することは3D再構成の基本的な課題であり、まばらにサンプリングされたビューを考えると依然として困難である。
本稿では,カメラを光束として扱うカメラポーズの分散表現を提案する。
提案手法は回帰法と拡散法の両方で,CO3Dのカメラポーズ推定における最先端性能を示す。
論文 参考訳(メタデータ) (2024-02-22T18:59:56Z) - Probabilistic Triangulation for Uncalibrated Multi-View 3D Human Pose
Estimation [22.127170452402332]
本稿では,3次元人間のポーズ推定手法に組み込むことができる新しい確率的三角測量モジュールを提案する。
本手法は,推定精度と一般化可能性のトレードオフを実現する。
論文 参考訳(メタデータ) (2023-09-09T11:03:37Z) - GAUDI: A Neural Architect for Immersive 3D Scene Generation [67.97817314857917]
GAUDIは、動くカメラから没入的にレンダリングできる複雑な3Dシーンの分布をキャプチャできる生成モデルである。
GAUDIは,複数のデータセットにまたがる非条件生成環境において,最先端の性能が得られることを示す。
論文 参考訳(メタデータ) (2022-07-27T19:10:32Z) - Visual Camera Re-Localization Using Graph Neural Networks and Relative
Pose Supervision [31.947525258453584]
視覚再局在化とは、単一の画像を入力として、予め記録された環境に対してカメラの位置と向きを推定する手段である。
提案手法は特別な仮定をほとんど行わず,訓練やテストでは極めて軽量である。
標準の屋内(7-Scenes)と屋外(Cambridge Landmarks)のカメラ再ローカリゼーションベンチマークに対するアプローチの有効性を検証する。
論文 参考訳(メタデータ) (2021-04-06T14:29:03Z) - 6D Camera Relocalization in Ambiguous Scenes via Continuous Multimodal
Inference [67.70859730448473]
あいまいさと不確かさを捉えるマルチモーダルカメラ再ローカライズフレームワークを提案する。
我々は、複数のカメラのポーズ仮説を予測し、それぞれの予測の不確実性も予測する。
あいまいな環境下でのカメラローカライゼーション研究を促進するための新しいデータセットを提案する。
論文 参考訳(メタデータ) (2020-04-09T20:55:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。