論文の概要: Lazy Visual Localization via Motion Averaging
- arxiv url: http://arxiv.org/abs/2307.09981v1
- Date: Wed, 19 Jul 2023 13:40:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-20 13:59:03.605471
- Title: Lazy Visual Localization via Motion Averaging
- Title(参考訳): 運動平均化による遅延視覚定位
- Authors: Siyan Dong, Shaohui Liu, Hengkai Guo, Baoquan Chen, Marc Pollefeys
- Abstract要約: 本研究では,データベースからシーンを再構築することなく,高精度なローカライゼーションを実現することができることを示す。
実験の結果、我々の視覚的ローカライゼーションの提案であるLazyLocは、最先端の構造に基づく手法に対して同等のパフォーマンスを実現していることがわかった。
- 参考スコア(独自算出の注目度): 89.8709956317671
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual (re)localization is critical for various applications in computer
vision and robotics. Its goal is to estimate the 6 degrees of freedom (DoF)
camera pose for each query image, based on a set of posed database images.
Currently, all leading solutions are structure-based that either explicitly
construct 3D metric maps from the database with structure-from-motion, or
implicitly encode the 3D information with scene coordinate regression models.
On the contrary, visual localization without reconstructing the scene in 3D
offers clear benefits. It makes deployment more convenient by reducing database
pre-processing time, releasing storage requirements, and remaining unaffected
by imperfect reconstruction, etc. In this technical report, we demonstrate that
it is possible to achieve high localization accuracy without reconstructing the
scene from the database. The key to achieving this owes to a tailored motion
averaging over database-query pairs. Experiments show that our visual
localization proposal, LazyLoc, achieves comparable performance against
state-of-the-art structure-based methods. Furthermore, we showcase the
versatility of LazyLoc, which can be easily extended to handle complex
configurations such as multi-query co-localization and camera rigs.
- Abstract(参考訳): 視覚(再)局所化は、コンピュータビジョンとロボティクスの様々な応用に不可欠である。
その目標は、提案されたデータベースイメージのセットに基づいて、クエリイメージ毎に6自由度(DoF)カメラのポーズを推定することである。
現在、すべての主要なソリューションは構造ベースであり、データベースから構造から3次元距離マップを明示的に構築するか、3次元情報をシーン座標回帰モデルで暗黙的に符号化する。
対照的に、3dでシーンを再構築することなく、視覚的なローカライゼーションは明らかな利点となる。
データベースの事前処理時間を短縮し、ストレージ要件を解放し、不完全な再構築などの影響を受けないようにすることで、デプロイをより便利にする。
本報告では,データベースからシーンを再構築することなく,高い位置推定精度を達成できることを実証する。
これを達成する鍵は、データベースとクエリのペアを平均的に調整した動作にある。
実験の結果,視覚局所化提案であるlazylocは,最先端の構造ベース手法と同等の性能を実現していることがわかった。
さらに,マルチクエリのコローカライゼーションやカメラリグといった複雑な構成に容易に拡張可能なLazyLocの汎用性についても紹介する。
関連論文リスト
- KRONC: Keypoint-based Robust Camera Optimization for 3D Car Reconstruction [58.04846444985808]
KRONCは、オブジェクトに関する事前知識を活用して、セマンティックキーポイントを通してその表現を再構築することで、ビューポーズを推論する新しいアプローチである。
車両シーンに焦点を当てたKRONCは、キーポイントのバックプロジェクションを特異点に収束させることを目的とした光最適化問題の解として、ビューの位置を推定することができる。
論文 参考訳(メタデータ) (2024-09-09T08:08:05Z) - SACReg: Scene-Agnostic Coordinate Regression for Visual Localization [16.866303169903237]
本稿では,新しいテストシーンで1回トレーニングされた一般化SCRモデルを提案する。
我々のモデルは、シーン座標をネットワーク重みに符号化する代わりに、スパース2Dピクセルのデータベースイメージを3D座標アノテーションに入力する。
画像のデータベース表現とその2D-3Dアノテーションは,局所化性能を損なうことなく,高度に圧縮できることを示す。
論文 参考訳(メタデータ) (2023-07-21T16:56:36Z) - Visual Localization using Imperfect 3D Models from the Internet [54.731309449883284]
本稿では,3次元モデルにおける欠陥が局所化精度に与える影響について検討する。
インターネットから得られる3Dモデルは、容易に表現できるシーン表現として有望であることを示す。
論文 参考訳(メタデータ) (2023-04-12T16:15:05Z) - Map-free Visual Relocalization: Metric Pose Relative to a Single Image [21.28513803531557]
本研究では,シーンの1枚の写真のみを用いて,地図のない再ローカライズを提案し,即時でスケールした再ローカライズを実現する。
既存のデータセットは、大きなシーンや限られた変数に焦点を当てているため、マップのない再ローカライゼーションのベンチマークには適していない。
我々は,世界規模で収集された彫刻,壁画,噴水など,655箇所の小さな関心事のデータセットを構築した。
論文 参考訳(メタデータ) (2022-10-11T14:49:49Z) - Visual Localization via Few-Shot Scene Region Classification [84.34083435501094]
ビジュアル(再)ローカライゼーションは、既知のシーンでキャプチャされたクエリイメージの6-DoFカメラのポーズを推定する問題に対処する。
画像画素からシーン座標へのマッピングを記憶することで,この問題を解決する。
シーン領域の分類手法を提案する。
論文 参考訳(メタデータ) (2022-08-14T22:39:02Z) - RenderNet: Visual Relocalization Using Virtual Viewpoints in Large-Scale
Indoor Environments [36.91498676137178]
本稿では,仮想ビュー合成に基づくRenderNetを提案する。
提案手法は大規模屋内環境における性能を大幅に向上させ,Inlocデータセットの7.1%と12.2%の改善を実現する。
論文 参考訳(メタデータ) (2022-07-26T00:08:43Z) - MeshLoc: Mesh-Based Visual Localization [54.731309449883284]
シーン表現を構築するために,データベースイメージ間のマッチング機能を必要としない,高密度な3Dメッシュに基づく,より柔軟な代替手段を模索する。
驚くべきことに、ニューラルネットワークのレンダリングステージなしで、これらのメッシュのレンダリングの特徴を抽出するときに、競合的な結果が得られる。
以上の結果から,高密度な3次元モデルに基づく表現は,既存の表現の代替として有望なものであり,今後の研究にとって興味深い,挑戦的な方向性を示すものと考えられる。
論文 参考訳(メタデータ) (2022-07-21T21:21:10Z) - SCFusion: Real-time Incremental Scene Reconstruction with Semantic
Completion [86.77318031029404]
本研究では,シーン再構成とセマンティックシーン補完を段階的かつリアルタイムに共同で行うフレームワークを提案する。
我々のフレームワークは、3Dグローバルモデルでセマンティックコンプリートを正確かつ効率的に融合させるために、占有マップを処理し、ボクセル状態を活用するように設計された新しいニューラルアーキテクチャに依存している。
論文 参考訳(メタデータ) (2020-10-26T15:31:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。