論文の概要: RenderNet: Visual Relocalization Using Virtual Viewpoints in Large-Scale
Indoor Environments
- arxiv url: http://arxiv.org/abs/2207.12579v1
- Date: Tue, 26 Jul 2022 00:08:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-27 12:41:32.095645
- Title: RenderNet: Visual Relocalization Using Virtual Viewpoints in Large-Scale
Indoor Environments
- Title(参考訳): RenderNet: 大規模屋内環境における仮想視点を用いた視覚的再局在
- Authors: Jiahui Zhang, Shitao Tang, Kejie Qiu, Rui Huang, Chuan Fang, Le Cui,
Zilong Dong, Siyu Zhu, and Ping Tan
- Abstract要約: 本稿では,仮想ビュー合成に基づくRenderNetを提案する。
提案手法は大規模屋内環境における性能を大幅に向上させ,Inlocデータセットの7.1%と12.2%の改善を実現する。
- 参考スコア(独自算出の注目度): 36.91498676137178
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visual relocalization has been a widely discussed problem in 3D vision: given
a pre-constructed 3D visual map, the 6 DoF (Degrees-of-Freedom) pose of a query
image is estimated. Relocalization in large-scale indoor environments enables
attractive applications such as augmented reality and robot navigation.
However, appearance changes fast in such environments when the camera moves,
which is challenging for the relocalization system. To address this problem, we
propose a virtual view synthesis-based approach, RenderNet, to enrich the
database and refine poses regarding this particular scenario. Instead of
rendering real images which requires high-quality 3D models, we opt to directly
render the needed global and local features of virtual viewpoints and apply
them in the subsequent image retrieval and feature matching operations
respectively. The proposed method can largely improve the performance in
large-scale indoor environments, e.g., achieving an improvement of 7.1\% and
12.2\% on the Inloc dataset.
- Abstract(参考訳): 事前構築された3dビジュアルマップによって、クエリ画像の6 dof(自由度)のポーズが推定される。
大規模な屋内環境での再ローカライズは、拡張現実やロボットナビゲーションのような魅力的な応用を可能にする。
しかし、カメラが動くと出現が急速に変化するため、再位置決めシステムでは困難である。
そこで本研究では,仮想ビュー合成ベースの手法であるrendernetを提案する。
高品質な3Dモデルを必要とする実際の画像をレンダリングする代わりに、仮想視点のグローバルな特徴とローカルな特徴を直接描画し、その後の画像検索と特徴マッチングにそれぞれ適用する。
提案手法は,Inlocデータセットの7.1\%と12.2\%の改善など,大規模屋内環境における性能を大幅に向上させることができる。
関連論文リスト
- SplatLoc: 3D Gaussian Splatting-based Visual Localization for Augmented Reality [50.179377002092416]
より少ないパラメータで高品質なレンダリングが可能な効率的なビジュアルローカライズ手法を提案する。
提案手法は,最先端の暗黙的視覚的ローカライゼーションアプローチに対して,より優れた,あるいは同等なレンダリングとローカライゼーション性能を実現する。
論文 参考訳(メタデータ) (2024-09-21T08:46:16Z) - Visual Localization in 3D Maps: Comparing Point Cloud, Mesh, and NeRF Representations [8.522160106746478]
様々な3次元地図表現にまたがる単一カメラ画像のローカライズが可能なグローバルな視覚的ローカライゼーションシステムを提案する。
本システムは,シーンの新たなビューを合成し,RGBと深度画像のペアを作成することでデータベースを生成する。
NeRF合成画像は、クエリ画像を平均72%の成功率でローカライズし、優れた性能を示す。
論文 参考訳(メタデータ) (2024-08-21T19:37:17Z) - Lazy Visual Localization via Motion Averaging [89.8709956317671]
本研究では,データベースからシーンを再構築することなく,高精度なローカライゼーションを実現することができることを示す。
実験の結果、我々の視覚的ローカライゼーションの提案であるLazyLocは、最先端の構造に基づく手法に対して同等のパフォーマンスを実現していることがわかった。
論文 参考訳(メタデータ) (2023-07-19T13:40:45Z) - Visual Localization using Imperfect 3D Models from the Internet [54.731309449883284]
本稿では,3次元モデルにおける欠陥が局所化精度に与える影響について検討する。
インターネットから得られる3Dモデルは、容易に表現できるシーン表現として有望であることを示す。
論文 参考訳(メタデータ) (2023-04-12T16:15:05Z) - MeshLoc: Mesh-Based Visual Localization [54.731309449883284]
シーン表現を構築するために,データベースイメージ間のマッチング機能を必要としない,高密度な3Dメッシュに基づく,より柔軟な代替手段を模索する。
驚くべきことに、ニューラルネットワークのレンダリングステージなしで、これらのメッシュのレンダリングの特徴を抽出するときに、競合的な結果が得られる。
以上の結果から,高密度な3次元モデルに基づく表現は,既存の表現の代替として有望なものであり,今後の研究にとって興味深い,挑戦的な方向性を示すものと考えられる。
論文 参考訳(メタデータ) (2022-07-21T21:21:10Z) - Vision Transformer for NeRF-Based View Synthesis from a Single Input
Image [49.956005709863355]
本稿では,グローバルな特徴と局所的な特徴を両立させ,表現力のある3D表現を実現することを提案する。
新たなビューを合成するために,学習した3次元表現に条件付き多層パーセプトロン(MLP)ネットワークを訓練し,ボリュームレンダリングを行う。
提案手法は,1つの入力画像のみから新しいビューを描画し,複数のオブジェクトカテゴリを1つのモデルで一般化することができる。
論文 参考訳(メタデータ) (2022-07-12T17:52:04Z) - Nerfels: Renderable Neural Codes for Improved Camera Pose Estimation [21.111919718001907]
提案する3次元シーン表現Nerfelsは局所的に密度が高いが,世界規模では疎い。
我々は、レンダリング可能なコードでシーンに依存しないローカルな3Dパッチを表現するために、機能駆動のアプローチを採用する。
我々のモデルは、既存の最先端の手作り・学習型特徴推定装置に組み込むことができ、広いカメラベースラインシナリオでScanNetを評価する際に、性能が向上する。
論文 参考訳(メタデータ) (2022-06-04T06:29:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。