論文の概要: Large-scale Localization Datasets in Crowded Indoor Spaces
- arxiv url: http://arxiv.org/abs/2105.08941v1
- Date: Wed, 19 May 2021 06:20:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-20 13:49:06.962440
- Title: Large-scale Localization Datasets in Crowded Indoor Spaces
- Title(参考訳): 集合屋内空間における大規模局所化データセット
- Authors: Donghwan Lee, Soohyun Ryu, Suyong Yeon, Yonghan Lee, Deokhwa Kim,
Cheolho Han, Yohann Cabon, Philippe Weinzaepfel, Nicolas Gu\'erin, Gabriela
Csurka, and Martin Humenberger
- Abstract要約: 実世界の挑戦的環境における視覚的位置決めのための新しい5つの屋内データセットを紹介した。
韓国のソウルにある大型ショッピングモールと大都市圏の駅で捕獲された。
地上の真理カメラの正確なポーズを得るために,ロバストなLiDAR SLAMを開発した。
- 参考スコア(独自算出の注目度): 23.071409425965772
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Estimating the precise location of a camera using visual localization enables
interesting applications such as augmented reality or robot navigation. This is
particularly useful in indoor environments where other localization
technologies, such as GNSS, fail. Indoor spaces impose interesting challenges
on visual localization algorithms: occlusions due to people, textureless
surfaces, large viewpoint changes, low light, repetitive textures, etc.
Existing indoor datasets are either comparably small or do only cover a subset
of the mentioned challenges. In this paper, we introduce 5 new indoor datasets
for visual localization in challenging real-world environments. They were
captured in a large shopping mall and a large metro station in Seoul, South
Korea, using a dedicated mapping platform consisting of 10 cameras and 2 laser
scanners. In order to obtain accurate ground truth camera poses, we developed a
robust LiDAR SLAM which provides initial poses that are then refined using a
novel structure-from-motion based optimization. We present a benchmark of
modern visual localization algorithms on these challenging datasets showing
superior performance of structure-based methods using robust image features.
The datasets are available at: https://naverlabs.com/datasets
- Abstract(参考訳): 視覚的ローカライゼーションを用いてカメラの正確な位置を推定することで、拡張現実やロボットナビゲーションといった興味深い応用が可能になる。
これは、GNSSのような他のローカライゼーション技術が失敗する屋内環境で特に有用である。
室内空間は、人による隠蔽、テクスチャのない表面、大きな視点の変化、低い光、反復的なテクスチャなど、視覚的ローカライゼーションアルゴリズムに興味深い課題を課している。
既存の屋内データセットは、比較できる限り小さいか、または上記の課題のサブセットのみをカバーする。
本稿では,現実環境における視覚的位置決めのための5つの新しい屋内データセットを提案する。
韓国ソウルにある大型ショッピングモールと大都市圏の駅で、カメラ10台とレーザースキャナー2台からなる専用のマッピングプラットフォームを使用して撮影された。
そこで我々は,実写カメラの正確なポーズを得るために,新しい構造に基づく最適化手法を用いて,初期ポーズを提供する頑健なLiDAR SLAMを開発した。
本稿では,ロバストな画像特徴を用いた構造ベース手法の優れた性能を示す,これらの課題データに対する現代的ビジュアルローカライゼーションアルゴリズムのベンチマークを示す。
データセットは、https://naverlabs.com/datasetsで利用可能である。
関連論文リスト
- SplatLoc: 3D Gaussian Splatting-based Visual Localization for Augmented Reality [50.179377002092416]
より少ないパラメータで高品質なレンダリングが可能な効率的なビジュアルローカライズ手法を提案する。
提案手法は,最先端の暗黙的視覚的ローカライゼーションアプローチに対して,より優れた,あるいは同等なレンダリングとローカライゼーション性能を実現する。
論文 参考訳(メタデータ) (2024-09-21T08:46:16Z) - Towards Robust Event-guided Low-Light Image Enhancement: A Large-Scale Real-World Event-Image Dataset and Novel Approach [7.974102031202597]
そこで本研究では,低照度および常照度条件下での30万組以上の画像とイベントからなる実世界(屋内および屋外)データセットを提案する。
このデータセットに基づいて、実世界の低照度シーンにおけるロバストなパフォーマンスを実現するために、EvLightと呼ばれるイベント誘導型LIEアプローチを提案する。
論文 参考訳(メタデータ) (2024-04-01T00:18:17Z) - Lazy Visual Localization via Motion Averaging [89.8709956317671]
本研究では,データベースからシーンを再構築することなく,高精度なローカライゼーションを実現することができることを示す。
実験の結果、我々の視覚的ローカライゼーションの提案であるLazyLocは、最先端の構造に基づく手法に対して同等のパフォーマンスを実現していることがわかった。
論文 参考訳(メタデータ) (2023-07-19T13:40:45Z) - CROSSFIRE: Camera Relocalization On Self-Supervised Features from an
Implicit Representation [3.565151496245487]
我々は,あるシーンの暗黙の地図としてニューラル・ラジアンス・フィールドを使用し,この表現に適したカメラ再配置を提案する。
提案手法は,ナビゲーション中に1台のRGBカメラを用いて,デバイスの正確な位置をリアルタイムで計算することができる。
論文 参考訳(メタデータ) (2023-03-08T20:22:08Z) - HPointLoc: Point-based Indoor Place Recognition using Synthetic RGB-D
Images [58.720142291102135]
本稿では,屋内環境における視覚的位置認識能力の探索を目的とした,HPointLocという新しいデータセットを提案する。
データセットは人気のあるHabitatシミュレータに基づいており、独自のセンサーデータとオープンデータセットの両方を使用して屋内シーンを生成することができる。
論文 参考訳(メタデータ) (2022-12-30T12:20:56Z) - CrossLoc: Scalable Aerial Localization Assisted by Multimodal Synthetic
Data [2.554905387213586]
本稿では,合成データを用いて実世界のカメラポーズを推定する視覚的位置決めシステムを提案する。
データ不足を緩和するために,汎用な合成データ生成ツールTOPO-DataGenを導入する。
また、ポーズ推定のためのクロスモーダル視覚表現学習手法であるCrossLocを導入する。
論文 参考訳(メタデータ) (2021-12-16T18:05:48Z) - CrowdDriven: A New Challenging Dataset for Outdoor Visual Localization [44.97567243883994]
クラウドソースデータを用いた屋外シーンにおける視覚的位置推定のための新しいベンチマークを提案する。
私たちのデータセットは非常に困難で、評価されたすべてのメソッドが最も難しい部分で失敗していることが示されています。
データセットリリースの一部として、私たちはそれを生成するために使用されるツールを提供し、効率的で効果的な2D対応アノテーションを可能にします。
論文 参考訳(メタデータ) (2021-09-09T19:25:48Z) - Zero-Shot Multi-View Indoor Localization via Graph Location Networks [66.05980368549928]
屋内ローカライゼーションは、位置ベースアプリケーションにおける基本的な問題である。
本稿では,インフラストラクチャフリーで多視点画像に基づく屋内ローカライゼーションを実現するために,新しいニューラルネットワークアーキテクチャであるGraph Location Networks(GLN)を提案する。
GLNは、メッセージパッシングネットワークを通じて画像から抽出されたロバストな位置表現に基づいて位置予測を行う。
新たにゼロショット屋内ローカライズ設定を導入し,提案したGLNを専用ゼロショットバージョンに拡張することで,その課題に対処する。
論文 参考訳(メタデータ) (2020-08-06T07:36:55Z) - Beyond Controlled Environments: 3D Camera Re-Localization in Changing
Indoor Scenes [74.9814252247282]
長期カメラ再配置は多くのコンピュータビジョンとロボット工学の応用において重要な課題である。
RIO10は、屋内シーンに焦点を当てた、新しい長期カメラ再ローカライゼーションベンチマークである。
論文 参考訳(メタデータ) (2020-08-05T09:02:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。