論文の概要: CrowdDriven: A New Challenging Dataset for Outdoor Visual Localization
- arxiv url: http://arxiv.org/abs/2109.04527v1
- Date: Thu, 9 Sep 2021 19:25:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-13 13:29:49.469148
- Title: CrowdDriven: A New Challenging Dataset for Outdoor Visual Localization
- Title(参考訳): crowddriven: 屋外の視覚的ローカライゼーションのための新しい挑戦的データセット
- Authors: Ara Jafarzadeh, Manuel Lopez Antequera, Pau Gargallo, Yubin Kuang,
Carl Toft, Fredrik Kahl, Torsten Sattler
- Abstract要約: クラウドソースデータを用いた屋外シーンにおける視覚的位置推定のための新しいベンチマークを提案する。
私たちのデータセットは非常に困難で、評価されたすべてのメソッドが最も難しい部分で失敗していることが示されています。
データセットリリースの一部として、私たちはそれを生成するために使用されるツールを提供し、効率的で効果的な2D対応アノテーションを可能にします。
- 参考スコア(独自算出の注目度): 44.97567243883994
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual localization is the problem of estimating the position and orientation
from which a given image (or a sequence of images) is taken in a known scene.
It is an important part of a wide range of computer vision and robotics
applications, from self-driving cars to augmented/virtual reality systems.
Visual localization techniques should work reliably and robustly under a wide
range of conditions, including seasonal, weather, illumination and man-made
changes. Recent benchmarking efforts model this by providing images under
different conditions, and the community has made rapid progress on these
datasets since their inception. However, they are limited to a few geographical
regions and often recorded with a single device. We propose a new benchmark for
visual localization in outdoor scenes, using crowd-sourced data to cover a wide
range of geographical regions and camera devices with a focus on the failure
cases of current algorithms. Experiments with state-of-the-art localization
approaches show that our dataset is very challenging, with all evaluated
methods failing on its hardest parts. As part of the dataset release, we
provide the tooling used to generate it, enabling efficient and effective 2D
correspondence annotation to obtain reference poses.
- Abstract(参考訳): 視覚局在は、所定の画像(または画像のシーケンス)が既知のシーンで撮影される位置と向きを推定する問題である。
これは、自動運転車から拡張現実/仮想現実システムまで、幅広いコンピュータビジョンとロボティクスアプリケーションにおいて重要な部分である。
視覚定位技術は,季節,天候,照明,人工的な変化など,幅広い条件下で安定かつ堅牢に機能するべきである。
最近のベンチマークの取り組みでは、異なる条件下でイメージを提供することによって、これをモデル化している。
しかし、それらは限られた地理的領域に限定され、単一の装置で記録されることが多い。
本研究では, クラウドソースデータを用いて, 屋外シーンにおける視覚像定位のための新しいベンチマークを提案し, 現在のアルゴリズムの故障事例に着目した, 幅広い地理的領域とカメラ装置をカバーする。
最先端のローカライゼーションアプローチによる実験では、我々のデータセットは非常に困難であり、評価されたすべてのメソッドは最も難しい部分で失敗している。
データセットのリリースの一部として、我々はそれを生成するためのツールを提供し、効率的に効果的な2D対応アノテーションを提供し、参照ポーズを得る。
関連論文リスト
- Learning Where to Look: Self-supervised Viewpoint Selection for Active Localization using Geometrical Information [68.10033984296247]
本稿では, 位置決めの精度を高めるために, 視点選択の重要性を強調し, アクティブな位置決め領域について検討する。
私たちのコントリビューションは、リアルタイム操作用に設計されたシンプルなアーキテクチャ、自己教師付きデータトレーニング方法、および実世界のロボティクスアプリケーションに適した計画フレームワークにマップを一貫して統合する能力による、データ駆動型アプローチの使用に関するものです。
論文 参考訳(メタデータ) (2024-07-22T12:32:09Z) - GeoCLIP: Clip-Inspired Alignment between Locations and Images for
Effective Worldwide Geo-localization [61.10806364001535]
世界規模のジオローカライゼーションは、地球上のどこでも撮影された画像の正確な位置を特定することを目的としている。
既存のアプローチは、地球を離散的な地理的細胞に分割し、問題を分類タスクに変換する。
画像と対応するGPS位置のアライメントを強制する新しいCLIPにインスパイアされた画像-GPS検索手法であるGeoCLIPを提案する。
論文 参考訳(メタデータ) (2023-09-27T20:54:56Z) - 4Seasons: Benchmarking Visual SLAM and Long-Term Localization for
Autonomous Driving in Challenging Conditions [54.59279160621111]
大規模4Seasonsデータセットに基づく課題条件下での自律運転のための新しい視覚的SLAMと長期局所化ベンチマークを提案する。
提案したベンチマークでは,季節変化や天候,照明条件の変動による劇的な外見の変化が報告されている。
本稿では,視覚計測,大域的位置認識,および地図に基づく視覚的位置決め性能を共同評価するための統合ベンチマークを提案する。
論文 参考訳(メタデータ) (2022-12-31T13:52:36Z) - Visual Localization via Few-Shot Scene Region Classification [84.34083435501094]
ビジュアル(再)ローカライゼーションは、既知のシーンでキャプチャされたクエリイメージの6-DoFカメラのポーズを推定する問題に対処する。
画像画素からシーン座標へのマッピングを記憶することで,この問題を解決する。
シーン領域の分類手法を提案する。
論文 参考訳(メタデータ) (2022-08-14T22:39:02Z) - Real-time Geo-localization Using Satellite Imagery and Topography for
Unmanned Aerial Vehicles [18.71806336611299]
本稿では,UAV上の軽量組込みシステムにおいて,シーン変更と実用性に信頼性のあるフレームワークを提案する。
このフレームワークは、オフラインデータベースの準備とオンライン推論の2つのステージで構成されている。
2つの異なるUAVプラットフォーム上でのイメージベースローカライゼーションのフィールド実験を行い、その結果を検証した。
論文 参考訳(メタデータ) (2021-08-07T01:47:19Z) - Large-scale Localization Datasets in Crowded Indoor Spaces [23.071409425965772]
実世界の挑戦的環境における視覚的位置決めのための新しい5つの屋内データセットを紹介した。
韓国のソウルにある大型ショッピングモールと大都市圏の駅で捕獲された。
地上の真理カメラの正確なポーズを得るために,ロバストなLiDAR SLAMを開発した。
論文 参考訳(メタデータ) (2021-05-19T06:20:49Z) - Self-supervised Human Detection and Segmentation via Multi-view
Consensus [116.92405645348185]
本稿では,トレーニング中に幾何学的制約を多視点一貫性という形で組み込むマルチカメラフレームワークを提案する。
本手法は,標準ベンチマークから視覚的に外れた画像に対して,最先端の自己監視的人物検出とセグメンテーション技術に勝ることを示す。
論文 参考訳(メタデータ) (2020-12-09T15:47:21Z) - Active Visual Localization in Partially Calibrated Environments [35.48595012305253]
人間は、目立った視覚的な手がかりやランドマークに追われて地図を使わずに、自分自身をしっかりとローカライズすることができる。
この研究では、自律エージェントを同じ能力でエンドウイングすることを目指している。
このような能力はロボットアプリケーションにおいて重要であるが、エージェントが部分的に調整された環境に晒される場合、非常に困難である。
合成データと実データの両方で構成された屋内シーンデータセットACR-6を提案し、アクティブビジュアルローカリゼーションのための困難なシナリオをシミュレートします。
論文 参考訳(メタデータ) (2020-12-08T08:00:55Z) - Domain-invariant Similarity Activation Map Contrastive Learning for
Retrieval-based Long-term Visual Localization [30.203072945001136]
本研究では,多領域画像変換による領域不変特徴抽出のために,確率論的に一般アーキテクチャを定式化する。
そして、より精密な局所化のために、新しい勾配重み付き類似性活性化写像損失(Grad-SAM)を組み込んだ。
CMUSeasonsデータセットにおける提案手法の有効性を検証するために大規模な実験が行われた。
我々の性能は、最先端のイメージベースのローカライゼーションベースラインを中あるいは高精度で上回るか、あるいは上回る。
論文 参考訳(メタデータ) (2020-09-16T14:43:22Z) - Robust Image Retrieval-based Visual Localization using Kapture [10.249293519246478]
視覚的ローカライゼーションのための多用途パイプラインを提案する。
8つの公開データセットで評価し、それらが上位にランクされ、その多くが上位にランクされている。
今後の研究を促進するため、我々は、BSDライセンス下でオープンソースであるKaptureフォーマットで、コード、モデル、およびすべてのデータセットをリリースする。
論文 参考訳(メタデータ) (2020-07-27T21:10:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。