論文の概要: Robust Image Retrieval-based Visual Localization using Kapture
- arxiv url: http://arxiv.org/abs/2007.13867v3
- Date: Fri, 7 Jan 2022 10:05:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-06 08:03:01.014306
- Title: Robust Image Retrieval-based Visual Localization using Kapture
- Title(参考訳): kaptureを用いたロバスト画像検索に基づく視覚定位
- Authors: Martin Humenberger and Yohann Cabon and Nicolas Guerin and Julien
Morat and Vincent Leroy and J\'er\^ome Revaud and Philippe Rerole and No\'e
Pion and Cesar de Souza and Gabriela Csurka
- Abstract要約: 視覚的ローカライゼーションのための多用途パイプラインを提案する。
8つの公開データセットで評価し、それらが上位にランクされ、その多くが上位にランクされている。
今後の研究を促進するため、我々は、BSDライセンス下でオープンソースであるKaptureフォーマットで、コード、モデル、およびすべてのデータセットをリリースする。
- 参考スコア(独自算出の注目度): 10.249293519246478
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual localization tackles the challenge of estimating the camera pose from
images by using correspondence analysis between query images and a map. This
task is computation and data intensive which poses challenges on thorough
evaluation of methods on various datasets. However, in order to further advance
in the field, we claim that robust visual localization algorithms should be
evaluated on multiple datasets covering a broad domain variety. To facilitate
this, we introduce kapture, a new, flexible, unified data format and toolbox
for visual localization and structure-from-motion (SFM). It enables easy usage
of different datasets as well as efficient and reusable data processing. To
demonstrate this, we present a versatile pipeline for visual localization that
facilitates the use of different local and global features, 3D data (e.g. depth
maps), non-vision sensor data (e.g. IMU, GPS, WiFi), and various processing
algorithms. Using multiple configurations of the pipeline, we show the great
versatility of kapture in our experiments. Furthermore, we evaluate our methods
on eight public datasets where they rank top on all and first on many of them.
To foster future research, we release code, models, and all datasets used in
this paper in the kapture format open source under a permissive BSD license.
github.com/naver/kapture, github.com/naver/kapture-localization
- Abstract(参考訳): 視覚的ローカライゼーションは、クエリ画像とマップの対応解析を用いて、画像からカメラのポーズを推定する課題に取り組む。
このタスクは計算とデータ集約であり、様々なデータセット上のメソッドの徹底的な評価に挑戦する。
しかし,この分野をさらに前進させるためには,広い範囲をカバーする複数のデータセット上で頑健なビジュアルローカライズアルゴリズムを評価すべきである。
これを容易にするために、新しいフレキシブルで統一されたデータフォーマットであるKaptureと、視覚的ローカライゼーションと構造移動(SFM)のためのツールボックスを導入する。
異なるデータセットの使いやすさと、効率的で再利用可能なデータ処理を可能にします。
これを示すために、様々な局所的特徴やグローバルな特徴、三次元データ(深度マップなど)、非視覚センサデータ(IMU、GPS、WiFiなど)、様々な処理アルゴリズムの使用を容易にする視覚的ローカライゼーションのための汎用パイプラインを提案する。
パイプラインの複数の構成を用いて、我々は実験でカプチャの大きな汎用性を示します。
さらに、これらの手法を8つの公開データセット上で評価し、それらのうちの1位と2位にランク付けする。
今後の研究を促進するため、我々は、BSDライセンス下でオープンソースであるKaptureフォーマットで、コード、モデル、およびすべてのデータセットをリリースする。
github.com/naver/kapture, github.com/naver/kapture-localization
関連論文リスト
- 360 in the Wild: Dataset for Depth Prediction and View Synthesis [66.58513725342125]
大規模な360$circ$ビデオデータセットを野放しに導入する。
このデータセットはインターネットから慎重に取り除かれ、世界中で様々な場所から収集されている。
データセットを構成する25K画像のそれぞれに、それぞれのカメラのポーズと深さマップが提供される。
論文 参考訳(メタデータ) (2024-06-27T05:26:38Z) - MeshVPR: Citywide Visual Place Recognition Using 3D Meshes [18.168206222895282]
メッシュベースのシーン表現は、大規模な階層的な視覚的ローカライゼーションパイプラインを簡素化するための有望な方向を提供する。
既存の研究は、視覚的ローカライゼーションのためのメッシュの実現可能性を示しているが、視覚的位置認識においてそれらから生成された合成データベースを使用することによる影響は、明らかにされていない。
実世界のドメインと合成ドメインのギャップを埋めるために、軽量な特徴アライメントフレームワークを利用する新しいVPRパイプラインであるMeshVPRを提案する。
論文 参考訳(メタデータ) (2024-06-04T20:45:53Z) - DBA-Fusion: Tightly Integrating Deep Dense Visual Bundle Adjustment with Multiple Sensors for Large-Scale Localization and Mapping [3.5047603107971397]
トレーニング可能な高密度バンドル調整(DBA)を因子グラフを通じて多センサ情報と密に統合する。
視覚-慣性統合のためのパイプラインが最初に開発され、メカニカルスケールのローカライゼーションとマッピングの最小限の能力を提供する。
その結果,大規模環境におけるリアルタイム高密度マッピングを実現する手法として,より優れたローカライゼーション性能が得られた。
論文 参考訳(メタデータ) (2024-03-20T16:20:54Z) - infoVerse: A Universal Framework for Dataset Characterization with
Multidimensional Meta-information [68.76707843019886]
infoVerseは、データセットの特徴付けのための普遍的なフレームワークである。
infoVerseは、様々なモデル駆動メタ情報を統合することで、データセットの多次元特性をキャプチャする。
実世界の3つのアプリケーション(データプルーニング、アクティブラーニング、データアノテーション)において、infoVerse空間で選択されたサンプルは、強いベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2023-05-30T18:12:48Z) - HPointLoc: Point-based Indoor Place Recognition using Synthetic RGB-D
Images [58.720142291102135]
本稿では,屋内環境における視覚的位置認識能力の探索を目的とした,HPointLocという新しいデータセットを提案する。
データセットは人気のあるHabitatシミュレータに基づいており、独自のセンサーデータとオープンデータセットの両方を使用して屋内シーンを生成することができる。
論文 参考訳(メタデータ) (2022-12-30T12:20:56Z) - Scrape, Cut, Paste and Learn: Automated Dataset Generation Applied to
Parcel Logistics [58.720142291102135]
4つのステップでインスタンスセグメンテーションのための合成データセットを生成するために,完全に自動化されたパイプラインを提案する。
まず、人気のある画像検索エンジンから興味ある対象の画像を抽出する。
画像選択には,オブジェクトに依存しない事前処理,手動画像選択,CNNに基づく画像選択の3つの方法を比較する。
論文 参考訳(メタデータ) (2022-10-18T12:49:04Z) - Online Pole Segmentation on Range Images for Long-term LiDAR
Localization in Urban Environments [32.34672033386747]
オンラインで実行される幾何学的特徴に基づく,新しい,正確かつ高速な極抽出手法を提案する。
本手法は3次元LiDARスキャンから生成した範囲画像を直接計算する。
抽出した極を擬似ラベルとして、オンライン範囲画像に基づく極分割のためのディープニューラルネットワークをトレーニングする。
論文 参考訳(メタデータ) (2022-08-15T17:58:08Z) - CrowdDriven: A New Challenging Dataset for Outdoor Visual Localization [44.97567243883994]
クラウドソースデータを用いた屋外シーンにおける視覚的位置推定のための新しいベンチマークを提案する。
私たちのデータセットは非常に困難で、評価されたすべてのメソッドが最も難しい部分で失敗していることが示されています。
データセットリリースの一部として、私たちはそれを生成するために使用されるツールを提供し、効率的で効果的な2D対応アノテーションを可能にします。
論文 参考訳(メタデータ) (2021-09-09T19:25:48Z) - Learning Cross-Scale Visual Representations for Real-Time Image
Geo-Localization [21.375640354558044]
局所センサに基づく状態推定手法は、誤差が蓄積されるにつれて長距離ミッションがドリフトする傾向にある。
クロススケールなデータセットと、クロスモダリティソースから追加データを生成する手法を紹介する。
本稿では,監督なしに大規模視覚表現を学習するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-09T08:08:54Z) - Campus3D: A Photogrammetry Point Cloud Benchmark for Hierarchical
Understanding of Outdoor Scene [76.4183572058063]
複数の屋外シーン理解タスクに対して,リッチな注釈付き3Dポイントクラウドデータセットを提案する。
データセットは階層型ラベルとインスタンスベースのラベルの両方でポイントワイズアノテートされている。
本稿では,3次元点雲分割のための階層的学習問題を定式化し,様々な階層間の整合性を評価することを提案する。
論文 参考訳(メタデータ) (2020-08-11T19:10:32Z) - Single Image Depth Estimation Trained via Depth from Defocus Cues [105.67073923825842]
単一のRGB画像から深度を推定することはコンピュータビジョンの基本的な課題である。
この作業では、異なる視点ではなく、フォーカスキューからの奥行きに依存しています。
我々は,KITTIとMake3Dデータセットの教師あり手法と同等な結果を提示し,教師なし学習手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-01-14T20:22:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。