論文の概要: TBPos: Dataset for Large-Scale Precision Visual Localization
- arxiv url: http://arxiv.org/abs/2302.09825v1
- Date: Mon, 20 Feb 2023 08:14:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 16:19:55.409514
- Title: TBPos: Dataset for Large-Scale Precision Visual Localization
- Title(参考訳): TBPos: 大規模高精度ビジュアルローカライゼーションのためのデータセット
- Authors: Masud Fahim, Ilona S\"ochting, Luca Ferranti, Juho Kannala, Jani
Boutellier
- Abstract要約: 本稿では、画像に基づく位置決めのための新しい大規模ビジュアルデータセットであるTPPosを提案する。
クェリイメージに完全に正確な真実のポーズを提供する。
実験では,画像に基づく局所化パイプラインを用いて,提案したデータセットの評価を行った。
- 参考スコア(独自算出の注目度): 13.754740636974434
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image based localization is a classical computer vision challenge, with
several well-known datasets. Generally, datasets consist of a visual 3D
database that captures the modeled scenery, as well as query images whose 3D
pose is to be discovered. Usually the query images have been acquired with a
camera that differs from the imaging hardware used to collect the 3D database;
consequently, it is hard to acquire accurate ground truth poses between query
images and the 3D database. As the accuracy of visual localization algorithms
constantly improves, precise ground truth becomes increasingly important. This
paper proposes TBPos, a novel large-scale visual dataset for image based
positioning, which provides query images with fully accurate ground truth
poses: both the database images and the query images have been derived from the
same laser scanner data. In the experimental part of the paper, the proposed
dataset is evaluated by means of an image-based localization pipeline.
- Abstract(参考訳): イメージベースのローカライゼーションは、いくつかのよく知られたデータセットを持つ、古典的なコンピュータビジョンの課題である。
一般的にデータセットは、モデル化された景色をキャプチャするビジュアル3dデータベースと、3dポーズが発見される画像のクエリで構成される。
通常、クエリ画像は3Dデータベースの収集に使われる撮像ハードウェアとは異なるカメラで取得されているため、クエリ画像と3Dデータベースの間の正確な真実のポーズを取得することは困難である。
視覚的ローカライゼーションアルゴリズムの精度が常に向上するにつれて、正確な基底真理がますます重要になる。
本稿では,データベース画像と問合せ画像が同一のレーザスキャナーデータから導出され,データベース画像と問合せ画像の両方が完全に正確な真実のポーズを問合せ画像に提供する,画像ベースの位置決めのための新しい大規模ビジュアルデータセットであるTPPosを提案する。
実験では,画像に基づく局所化パイプラインを用いて,提案したデータセットの評価を行った。
関連論文リスト
- SCRREAM : SCan, Register, REnder And Map:A Framework for Annotating Accurate and Dense 3D Indoor Scenes with a Benchmark [43.88114765730359]
SCRREAMは、シーン内のオブジェクトの完全な高密度メッシュのアノテーションを可能にし、実際の画像シーケンスにカメラのポーズを登録する。
データセットのアノテーションパイプラインの詳細を示し、可能なデータセットの4つのバリエーションを示す。
最近の屋内再建とSLAMのためのパイプラインは、新しいベンチマークとして機能している。
論文 参考訳(メタデータ) (2024-10-30T05:53:07Z) - TP3M: Transformer-based Pseudo 3D Image Matching with Reference Image [0.9831489366502301]
トランスフォーマーを用いた擬似3次元画像マッチング手法を提案する。
ソース画像から抽出した2D特徴を参照画像の助けを借りて3D特徴にアップグレードし、目的地画像から抽出した2D特徴にマッチする。
複数のデータセットに対する実験結果から, 提案手法は, ホモグラフィ推定, ポーズ推定, 視覚的ローカライゼーションのタスクにおいて, 最先端の課題を達成できることが示唆された。
論文 参考訳(メタデータ) (2024-05-14T08:56:09Z) - 3DiffTection: 3D Object Detection with Geometry-Aware Diffusion Features [70.50665869806188]
3DiffTectionは、単一の画像から3Dオブジェクトを検出する最先端の方法である。
拡散モデルを微調整し、単一の画像に条件付けされた新しいビュー合成を行う。
さらに、検出監視により、ターゲットデータ上でモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-11-07T23:46:41Z) - SACReg: Scene-Agnostic Coordinate Regression for Visual Localization [16.866303169903237]
本稿では,新しいテストシーンで1回トレーニングされた一般化SCRモデルを提案する。
我々のモデルは、シーン座標をネットワーク重みに符号化する代わりに、スパース2Dピクセルのデータベースイメージを3D座標アノテーションに入力する。
画像のデータベース表現とその2D-3Dアノテーションは,局所化性能を損なうことなく,高度に圧縮できることを示す。
論文 参考訳(メタデータ) (2023-07-21T16:56:36Z) - Lazy Visual Localization via Motion Averaging [89.8709956317671]
本研究では,データベースからシーンを再構築することなく,高精度なローカライゼーションを実現することができることを示す。
実験の結果、我々の視覚的ローカライゼーションの提案であるLazyLocは、最先端の構造に基づく手法に対して同等のパフォーマンスを実現していることがわかった。
論文 参考訳(メタデータ) (2023-07-19T13:40:45Z) - NAVI: Category-Agnostic Image Collections with High-Quality 3D Shape and
Pose Annotations [64.95582364215548]
NAVIは、高品質な3Dスキャンと画像ごとの2D-3Dアライメントを備えたカテゴリに依存しない画像コレクションの新しいデータセットである。
これらの2D-3Dアライメントにより,高密度画素対応,深度,セグメンテーションマップなどの正確な微分アノテーションを抽出できる。
論文 参考訳(メタデータ) (2023-06-15T13:11:30Z) - Visual Localization using Imperfect 3D Models from the Internet [54.731309449883284]
本稿では,3次元モデルにおける欠陥が局所化精度に与える影響について検討する。
インターネットから得られる3Dモデルは、容易に表現できるシーン表現として有望であることを示す。
論文 参考訳(メタデータ) (2023-04-12T16:15:05Z) - A Large Scale Homography Benchmark [52.55694707744518]
1DSfMデータセットから10万枚の画像から約1000個の平面が観測された3D, Pi3Dの平面の大規模データセットを示す。
また,Pi3Dを利用した大規模ホモグラフィ推定ベンチマークであるHEBを提案する。
論文 参考訳(メタデータ) (2023-02-20T14:18:09Z) - 3D Surfel Map-Aided Visual Relocalization with Learned Descriptors [15.608529165143718]
本稿では3次元サーベイルマップから幾何情報を用いた視覚的再局在化手法を提案する。
ビジュアルデータベースは、まず3dサーフェルマップレンダリングのグローバルインデックスによって構築され、画像ポイントと3dサーフェルの関連を提供する。
階層型カメラ再ローカライズアルゴリズムは、視覚データベースを用いて6-DoFカメラのポーズを推定する。
論文 参考訳(メタデータ) (2021-04-08T15:59:57Z) - Robust Image Retrieval-based Visual Localization using Kapture [10.249293519246478]
視覚的ローカライゼーションのための多用途パイプラインを提案する。
8つの公開データセットで評価し、それらが上位にランクされ、その多くが上位にランクされている。
今後の研究を促進するため、我々は、BSDライセンス下でオープンソースであるKaptureフォーマットで、コード、モデル、およびすべてのデータセットをリリースする。
論文 参考訳(メタデータ) (2020-07-27T21:10:35Z) - Mask2CAD: 3D Shape Prediction by Learning to Segment and Retrieve [54.054575408582565]
本稿では,既存の3次元モデルの大規模データセットを活用し,画像中の物体の3次元構造を理解することを提案する。
本稿では,実世界の画像と検出対象を共同で検出するMask2CADについて,最も類似したCADモデルとそのポーズを最適化する。
これにより、画像内のオブジェクトのクリーンで軽量な表現が生成される。
論文 参考訳(メタデータ) (2020-07-26T00:08:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。