論文の概要: LaMAR: Benchmarking Localization and Mapping for Augmented Reality
- arxiv url: http://arxiv.org/abs/2210.10770v1
- Date: Wed, 19 Oct 2022 17:58:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 14:55:32.513156
- Title: LaMAR: Benchmarking Localization and Mapping for Augmented Reality
- Title(参考訳): LaMAR: 拡張現実のためのローカライゼーションとマッピングのベンチマーク
- Authors: Paul-Edouard Sarlin, Mihai Dusmanu, Johannes L. Sch\"onberger, Pablo
Speciale, Lukas Gruber, Viktor Larsson, Ondrej Miksik, Marc Pollefeys
- Abstract要約: 異種ARデバイスでキャプチャされたリアルな軌跡とセンサストリームを共登録する,包括的キャプチャとGTパイプラインを備えた新しいベンチマークであるLaMARを紹介する。
私たちは、ヘッドマウントとハンドヘルドARデバイスで記録された多様な大規模シーンのベンチマークデータセットを公開します。
- 参考スコア(独自算出の注目度): 80.23361950062302
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Localization and mapping is the foundational technology for augmented reality
(AR) that enables sharing and persistence of digital content in the real world.
While significant progress has been made, researchers are still mostly driven
by unrealistic benchmarks not representative of real-world AR scenarios. These
benchmarks are often based on small-scale datasets with low scene diversity,
captured from stationary cameras, and lack other sensor inputs like inertial,
radio, or depth data. Furthermore, their ground-truth (GT) accuracy is mostly
insufficient to satisfy AR requirements. To close this gap, we introduce LaMAR,
a new benchmark with a comprehensive capture and GT pipeline that co-registers
realistic trajectories and sensor streams captured by heterogeneous AR devices
in large, unconstrained scenes. To establish an accurate GT, our pipeline
robustly aligns the trajectories against laser scans in a fully automated
manner. As a result, we publish a benchmark dataset of diverse and large-scale
scenes recorded with head-mounted and hand-held AR devices. We extend several
state-of-the-art methods to take advantage of the AR-specific setup and
evaluate them on our benchmark. The results offer new insights on current
research and reveal promising avenues for future work in the field of
localization and mapping for AR.
- Abstract(参考訳): ローカライゼーションとマッピングは、現実世界におけるデジタルコンテンツの共有と永続化を可能にする拡張現実(AR)の基礎技術である。
かなりの進歩があったが、研究者たちはいまだに現実のARシナリオを代表していない非現実的なベンチマークによって推進されている。
これらのベンチマークは、しばしば、シーンの多様性が低い小さなデータセットに基づいており、静止カメラからキャプチャされ、慣性、ラジオ、深度データのような他のセンサー入力が欠けている。
さらに、その接地精度(gt)はar要件を満たすには不十分である。
このギャップを埋めるために、lamarを紹介します。これは包括的なキャプチャとgtパイプラインを備えた新しいベンチマークで、大きな制約のないシーンで、異種arデバイスによってキャプチャされたリアルなトラジェクタとセンサストリームを共登録します。
正確なGTを確立するために、我々のパイプラインは、完全に自動化された方法でレーザースキャンに対して軌道を頑健に整列する。
その結果、ヘッドマウントとハンドヘルドARデバイスで記録された多様な大規模シーンのベンチマークデータセットを公表した。
我々は、AR固有の設定を活用するためにいくつかの最先端の手法を拡張し、ベンチマークでそれらを評価する。
この結果は、現在の研究に関する新たな洞察を与え、ARのローカライゼーションとマッピングの分野における今後の研究の道筋を明らかにする。
関連論文リスト
- SARDet-100K: Towards Open-Source Benchmark and ToolKit for Large-Scale
SAR Object Detection [83.21028626585986]
我々は,大規模SARオブジェクト検出のための新しいベンチマークデータセットとオープンソース手法を構築した。
私たちのデータセットであるSARDet-100Kは、10の既存のSAR検出データセットの厳格な調査、収集、標準化の結果です。
私たちの知る限りでは、SARDet-100KはCOCOレベルの大規模マルチクラスSARオブジェクト検出データセットとしては初めてのものです。
論文 参考訳(メタデータ) (2024-03-11T09:20:40Z) - Mobile AR Depth Estimation: Challenges & Prospects -- Extended Version [12.887748044339913]
モバイルARにおける正確な距離深度推定を実現するための課題と機会について検討する。
新たに導入されたデータセット(ARKitScenes)上で,最先端のモノクル深度推定モデル4種を試験した。
私たちの研究は、これらの課題を探求し解決するための将来的な方向性を提供します。
論文 参考訳(メタデータ) (2023-10-22T22:47:51Z) - Cross-View Visual Geo-Localization for Outdoor Augmented Reality [11.214903134756888]
地上画像のクロスビューマッチングによる測地位置推定の課題をジオレファレンス衛星画像データベースに解決する。
本稿では,新しいトランスフォーマーニューラルネットワークモデルを提案する。
いくつかのベンチマーク・クロスビュー・ジオローカライズ・データセットの実験により、我々のモデルが最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2023-03-28T01:58:03Z) - Benchmark Dataset and Effective Inter-Frame Alignment for Real-World
Video Super-Resolution [65.20905703823965]
ビデオ超解像(VSR)は、高解像度(HR)動画を低解像度(LR)ビデオから再構成することを目的としており、近年大きく進歩している。
既存のVSRメソッドを複雑な劣化を伴う実世界のデータにデプロイすることは依然として困難である。
EAVSRは、提案した多層適応空間変換ネットワーク(MultiAdaSTN)を用いて、事前学習した光フロー推定ネットワークが提供するオフセットを洗練する。
論文 参考訳(メタデータ) (2022-12-10T17:41:46Z) - Deep Learning for Real Time Satellite Pose Estimation on Low Power Edge
TPU [58.720142291102135]
本稿では,ニューラルネットワークアーキテクチャを利用したポーズ推定ソフトウェアを提案する。
我々は、低消費電力の機械学習アクセラレーターが宇宙での人工知能の活用を可能にしていることを示す。
論文 参考訳(メタデータ) (2022-04-07T08:53:18Z) - AirDet: Few-Shot Detection without Fine-tuning for Autonomous
Exploration [16.032316550612336]
本稿では,支援画像とのクラス関係の学習による微調整が不要なAirDetを提案する。
AirDetは、徹底的に微調整された方法と同等またはそれ以上の結果を達成し、ベースラインで最大40~60%の改善を実現している。
DARPA潜水試験における実地探査実験の評価結果について述べる。
論文 参考訳(メタデータ) (2021-12-03T06:41:07Z) - Rethinking Drone-Based Search and Rescue with Aerial Person Detection [79.76669658740902]
航空ドローンの映像の視覚検査は、現在土地捜索救助(SAR)活動に不可欠な部分である。
本稿では,この空中人物検出(APD)タスクを自動化するための新しいディープラーニングアルゴリズムを提案する。
本稿では,Aerial Inspection RetinaNet (AIR) アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-11-17T21:48:31Z) - AR Mapping: Accurate and Efficient Mapping for Augmented Reality [35.420264042749146]
本論文では,特定のシーンのarマップについて紹介する。1)6自由度ポーズのカラー画像,2)各画像の濃密深度マップ,3)完全点クラウドマップである。
効率的なデータキャプチャのために、バックパック走査装置に統一キャリブレーションパイプラインを提示する。
次に,走査装置から入力を受け取り,正確なARマップを生成するARマッピングパイプラインを提案する。
論文 参考訳(メタデータ) (2021-03-27T08:57:48Z) - StrObe: Streaming Object Detection from LiDAR Packets [73.27333924964306]
ローリングシャッターのLiDARはパケットのストリームとして出力され、それぞれ360degのカバレッジのセクターをカバーする。
現代の認識アルゴリズムは、データを処理する前に全スイープが構築されるのを待つ。
本稿では,LiDARパケットを取り込み,全スイープが構築されるのを待たずに検出ストリームを出力することで,レイテンシを最小化する新しいアプローチであるStrObeを提案する。
論文 参考訳(メタデータ) (2020-11-12T14:57:44Z) - LE-HGR: A Lightweight and Efficient RGB-based Online Gesture Recognition
Network for Embedded AR Devices [8.509059894058947]
本稿では,低消費電力な組込みデバイス上でのリアルタイムジェスチャー認識を実現するために,軽量で計算効率のよいHGRフレームワークLE-HGRを提案する。
提案手法は高精度でロバスト性があり,様々な複雑な相互作用環境において,高性能な性能を実現することができることを示す。
論文 参考訳(メタデータ) (2020-01-16T05:23:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。