論文の概要: Robust Localization with Visual-Inertial Odometry Constraints for
Markerless Mobile AR
- arxiv url: http://arxiv.org/abs/2308.05394v2
- Date: Fri, 15 Sep 2023 07:20:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-18 17:56:19.999185
- Title: Robust Localization with Visual-Inertial Odometry Constraints for
Markerless Mobile AR
- Title(参考訳): マーカーレスモバイルARのための視覚慣性オドメトリー制約を用いたロバスト位置決め
- Authors: Changkun Liu, Yukun Zhao, Tristan Braud
- Abstract要約: 本稿では、絶対的なポーズ回帰器とローカルなVIOトラッキングシステムを組み合わせた、マーカーレスモバイルARのための新しいフレームワークであるVIO-APRを紹介する。
VIO-APRはVIOを用いてAPRとAPRの信頼性を評価し、VIOドリフトの識別と補償を行う。
私たちは、その能力を実証するためにUnityを使用してモバイルARアプリケーションにVIO-APRを実装します。
- 参考スコア(独自算出の注目度): 2.856126556871729
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual Inertial Odometry (VIO) is an essential component of modern Augmented
Reality (AR) applications. However, VIO only tracks the relative pose of the
device, leading to drift over time. Absolute pose estimation methods infer the
device's absolute pose, but their accuracy depends on the input quality. This
paper introduces VIO-APR, a new framework for markerless mobile AR that
combines an absolute pose regressor (APR) with a local VIO tracking system.
VIO-APR uses VIO to assess the reliability of the APR and the APR to identify
and compensate for VIO drift. This feedback loop results in more accurate
positioning and more stable AR experiences. To evaluate VIO-APR, we created a
dataset that combines camera images with ARKit's VIO system output for six
indoor and outdoor scenes of various scales. Over this dataset, VIO-APR
improves the median accuracy of popular APR by up to 36\% in position and 29\%
in orientation, increases the percentage of frames in the high ($0.25 m,
2^{\circ}$) accuracy level by up to 112\% and reduces the percentage of frames
predicted below the low ($5 m, 10^\circ$) accuracy greatly. We implement
VIO-APR into a mobile AR application using Unity to demonstrate its
capabilities. VIO-APR results in noticeably more accurate localization and a
more stable overall experience.
- Abstract(参考訳): 視覚慣性オドメトリー(VIO)は、現代の拡張現実(AR)アプリケーションにおいて不可欠なコンポーネントである。
しかし、VIOはデバイスの相対的なポーズのみを追跡し、時間の経過とともにドリフトする。
絶対ポーズ推定手法はデバイスの絶対ポーズを推定するが、その精度は入力品質に依存する。
本稿では、絶対ポーズ回帰器(APR)とローカルVIOトラッキングシステムを組み合わせた、マーカーレスモバイルARのための新しいフレームワークであるVIO-APRを紹介する。
VIO-APRはVIOを用いてAPRとAPRの信頼性を評価し、VIOドリフトの識別と補償を行う。
このフィードバックループはより正確な位置決めとより安定したAR体験をもたらす。
VIO-APRを評価するために、さまざまなスケールの6つの屋内・屋外シーンに対して、カメラ画像とARKitのVIOシステム出力を組み合わせたデータセットを作成しました。
このデータセットを通して、VIO-APRは、一般的なAPRの中央値の精度を最大36\%、オリエンテーション29\%改善し、高い(0.25m, 2^{\circ}$)精度のフレームの割合を最大112\%向上させ、低い(5m, 10^\circ$)精度以下で予測されるフレームの割合を大幅に削減する。
私たちは、その能力を実証するためにUnityを使用してモバイルARアプリケーションにVIO-APRを実装します。
VIO-APRは明らかに精度が高く、全体的な経験も安定している。
関連論文リスト
- SparseFormer: Detecting Objects in HRW Shots via Sparse Vision Transformer [62.11796778482088]
本稿では,近接撮影とHRW撮影のオブジェクト検出のギャップを埋めるために,SparseFormerと呼ばれるモデル非依存のスパース視覚変換器を提案する。
提案されたSparseFormerは、オブジェクトを含む可能性のあるスパース分散ウィンドウを精査するために、注意トークンを選択的に使用する。
2つのHRWベンチマークであるPANDAとDOTA-v1.0の実験により、提案されたSparseFormerは、最先端のアプローチよりも検出精度(最大5.8%)と速度(最大3倍)を大幅に改善することを示した。
論文 参考訳(メタデータ) (2025-02-11T03:21:25Z) - RSAR: Restricted State Angle Resolver and Rotated SAR Benchmark [61.987291551925516]
単位円制限損失を組み込んで角度予測精度を向上させるユニットサイクルリゾルバを導入する。
提案手法は,既存の最先端教師あり手法の性能を効果的に向上させることができる。
UCRの助けを借りて、これまでで最大の多クラス回転SARオブジェクト検出データセットであるRSARをさらに注釈し、導入する。
論文 参考訳(メタデータ) (2025-01-08T11:41:47Z) - Mobile Augmented Reality Framework with Fusional Localization and Pose Estimation [9.73202312695815]
GPSベースのモバイルARシステムは、通常、屋内環境における不正確な位置決めのため、性能が良くない。
本稿ではまず,モバイルプラットフォーム上での最先端ARとローカライゼーションシステムについて包括的に研究する。
そこで本研究では,効果的な屋内移動型ARフレームワークを提案する。
本フレームワークでは,統合的ローカライズ法と新しいポーズ推定法を開発し,全体のマッチング率を高め,AR表示精度を向上させる。
論文 参考訳(メタデータ) (2025-01-06T19:02:39Z) - RoMeO: Robust Metric Visual Odometry [11.381243799745729]
ビジュアルオドメトリー(VO)は、視覚入力からカメラのポーズを推定することを目的としている。
既存のアプローチでは、この困難なシナリオ下で堅牢性が欠如し、目に見えないデータ(特に屋外)に一般化できない
本稿では,事前学習した深度モデルから,これらの問題を解決する新しい手法であるRoMeO(Roust Metric Visual Odometry)を提案する。
論文 参考訳(メタデータ) (2024-12-16T08:08:35Z) - MobileARLoc: On-device Robust Absolute Localisation for Pervasive
Markerless Mobile AR [2.856126556871729]
本稿では,大規模マーカーレスモバイルARのための新しいフレームワークであるMobileARLocを紹介する。
MobileARLocは絶対ポーズ回帰器(APR)とローカルVIOトラッキングシステムを組み合わせる。
我々は,MobileARLocが基盤となるAPRと比較して誤差を半減し,デバイス上での高速(80,ms)の推論速度を実現することを示す。
論文 参考訳(メタデータ) (2024-01-21T14:48:38Z) - KS-APR: Keyframe Selection for Robust Absolute Pose Regression [2.541264438930729]
Markerless Mobile Augmented Reality (AR)は、特定の2Dや3Dオブジェクトを使わずに、物理的な世界でデジタルコンテンツを固定することを目的としている。
エンドツーエンドの機械学習ソリューションは、単一の単眼画像からデバイスのポーズを推測する。
APR法は、トレーニングセットから遠すぎる入力画像に対して重大な不正確性をもたらす傾向がある。
本稿では,推定ポーズの信頼性を最小限のオーバーヘッドで評価するパイプラインKS-APRを紹介する。
論文 参考訳(メタデータ) (2023-08-10T09:32:20Z) - Enhanced Stable View Synthesis [86.69338893753886]
本稿では,自由に動くカメラから撮影した画像から,新しいビュー合成を強化するアプローチを提案する。
導入されたアプローチは、正確な幾何学的足場とカメラのポーズの復元が困難な屋外シーンに焦点を当てている。
論文 参考訳(メタデータ) (2023-03-30T01:53:14Z) - LaMAR: Benchmarking Localization and Mapping for Augmented Reality [80.23361950062302]
異種ARデバイスでキャプチャされたリアルな軌跡とセンサストリームを共登録する,包括的キャプチャとGTパイプラインを備えた新しいベンチマークであるLaMARを紹介する。
私たちは、ヘッドマウントとハンドヘルドARデバイスで記録された多様な大規模シーンのベンチマークデータセットを公開します。
論文 参考訳(メタデータ) (2022-10-19T17:58:17Z) - Benchmarking Visual-Inertial Deep Multimodal Fusion for Relative Pose
Regression and Odometry-aided Absolute Pose Regression [6.557612703872671]
視覚慣性ローカライゼーションは、仮想現実、自動運転車、航空機などのコンピュータビジョンやロボティクスアプリケーションにおいて重要な問題である。
本研究では,ポーズグラフの最適化とアテンションネットワークに基づく深層マルチモーダル融合の評価を行う。
本稿では,APR-RPRタスクの改善と,航空機やハンドヘルド機器のRPR-RPRタスクの改善について述べる。
論文 参考訳(メタデータ) (2022-08-01T15:05:26Z) - Towards Scale Consistent Monocular Visual Odometry by Learning from the
Virtual World [83.36195426897768]
仮想データから絶対スケールを取得するための新しいフレームワークであるVRVOを提案する。
まず、モノクロ実画像とステレオ仮想データの両方を用いて、スケール対応の異種ネットワークをトレーニングする。
結果として生じるスケール一貫性の相違は、直接VOシステムと統合される。
論文 参考訳(メタデータ) (2022-03-11T01:51:54Z) - Dense Label Encoding for Boundary Discontinuity Free Rotation Detection [69.75559390700887]
本稿では,分類に基づく比較的研究の少ない方法論について検討する。
我々は2つの側面でフロンティアを推し進めるための新しい手法を提案する。
航空画像のための大規模公開データセットの実験と視覚解析は,我々のアプローチの有効性を示している。
論文 参考訳(メタデータ) (2020-11-19T05:42:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。