論文の概要: Instant Visual Odometry Initialization for Mobile AR
- arxiv url: http://arxiv.org/abs/2107.14659v1
- Date: Fri, 30 Jul 2021 14:25:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-02 12:59:40.793375
- Title: Instant Visual Odometry Initialization for Mobile AR
- Title(参考訳): モバイルarのためのインスタントビジュアルオドメトリ初期化
- Authors: Alejo Concha, Michael Burri, Jes\'us Briales, Christian Forster and
Luc Oth
- Abstract要約: 運動視差を伴わずとも瞬時に初期化できる6-DoF単眼視機能検査を施行した。
我々の主な貢献は5-DoFの相対回転と翻訳の方向を推定するポーズ推定器である。
我々のソリューションは、フルオドメトリーまたはサポート対象のSLAMシステムのプレSLAMコンポーネントとして使用される。
- 参考スコア(独自算出の注目度): 5.497296425129818
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mobile AR applications benefit from fast initialization to display
world-locked effects instantly. However, standard visual odometry or SLAM
algorithms require motion parallax to initialize (see Figure 1) and, therefore,
suffer from delayed initialization. In this paper, we present a 6-DoF monocular
visual odometry that initializes instantly and without motion parallax. Our
main contribution is a pose estimator that decouples estimating the 5-DoF
relative rotation and translation direction from the 1-DoF translation
magnitude. While scale is not observable in a monocular vision-only setting, it
is still paramount to estimate a consistent scale over the whole trajectory
(even if not physically accurate) to avoid AR effects moving erroneously along
depth. In our approach, we leverage the fact that depth errors are not
perceivable to the user during rotation-only motion. However, as the user
starts translating the device, depth becomes perceivable and so does the
capability to estimate consistent scale. Our proposed algorithm naturally
transitions between these two modes. We perform extensive validations of our
contributions with both a publicly available dataset and synthetic data. We
show that the proposed pose estimator outperforms the classical approaches for
6-DoF pose estimation used in the literature in low-parallax configurations. We
release a dataset for the relative pose problem using real data to facilitate
the comparison with future solutions for the relative pose problem. Our
solution is either used as a full odometry or as a preSLAM component of any
supported SLAM system (ARKit, ARCore) in world-locked AR effects on platforms
such as Instagram and Facebook.
- Abstract(参考訳): モバイルarアプリケーションは、世界ロック効果を即座に表示する高速初期化の恩恵を受ける。
しかし、標準的な視覚計測またはSLAMアルゴリズムは、動きパララックスを初期化するために要求する(図1参照)。
本稿では,運動視差を伴わずに瞬時に初期化する6自由度単眼視覚オドメトリを提案する。
我々の主な貢献は1dofの翻訳量から5dofの相対回転と翻訳方向を推定するポーズ推定器である。
単一の視覚のみの環境ではスケールは観測できないが、(物理的に正確ではないとしても)軌道全体にわたって一貫したスケールを推定することが最重要である。
本手法では,回転のみの動作では奥行き誤差がユーザには認識できないという事実を利用する。
しかし、ユーザーがデバイスを翻訳し始めると、深さが知覚可能になり、一貫したスケールを推定できる。
提案アルゴリズムは2つのモード間で自然に遷移する。
公開データセットと合成データの両方で、コントリビューションの広範な検証を行っています。
提案手法は,低パララックス構成の文献で用いられる6自由度姿勢推定の古典的アプローチに勝ることを示す。
本研究では,実データを用いた相対ポーズ問題のためのデータセットをリリースし,相対ポーズ問題に対する今後のソリューションとの比較を容易にする。
当社のソリューションは,InstagramやFacebookなどのプラットフォーム上でのワールドロックされたARエフェクトにおいて,フルオドメトリあるいはサポート対象のSLAMシステム(ARKit, ARCore)の事前SLAMコンポーネントとして使用されています。
関連論文リスト
- RSAR: Restricted State Angle Resolver and Rotated SAR Benchmark [61.987291551925516]
単位円制限損失を組み込んで角度予測精度を向上させるユニットサイクルリゾルバを導入する。
提案手法は,既存の最先端教師あり手法の性能を効果的に向上させることができる。
UCRの助けを借りて、これまでで最大の多クラス回転SARオブジェクト検出データセットであるRSARをさらに注釈し、導入する。
論文 参考訳(メタデータ) (2025-01-08T11:41:47Z) - RoMeO: Robust Metric Visual Odometry [11.381243799745729]
ビジュアルオドメトリー(VO)は、視覚入力からカメラのポーズを推定することを目的としている。
既存のアプローチでは、この困難なシナリオ下で堅牢性が欠如し、目に見えないデータ(特に屋外)に一般化できない
本稿では,事前学習した深度モデルから,これらの問題を解決する新しい手法であるRoMeO(Roust Metric Visual Odometry)を提案する。
論文 参考訳(メタデータ) (2024-12-16T08:08:35Z) - RD-VIO: Robust Visual-Inertial Odometry for Mobile Augmented Reality in
Dynamic Environments [55.864869961717424]
視覚的・視覚的慣性オドメトリーシステムでは、動的シーンや純粋な回転の問題に対処することが通常困難である。
我々はこれらの問題に対処するためにRD-VIOと呼ばれる新しい視覚-慣性オドメトリーシステム(VIO)を設計する。
論文 参考訳(メタデータ) (2023-10-23T16:30:39Z) - RGB-based Category-level Object Pose Estimation via Decoupled Metric
Scale Recovery [72.13154206106259]
本研究では、6次元のポーズとサイズ推定を分離し、不完全なスケールが剛性変換に与える影響を緩和するパイプラインを提案する。
具体的には,事前学習した単分子推定器を用いて局所的な幾何学的情報を抽出する。
別個のブランチは、カテゴリレベルの統計に基づいてオブジェクトのメートル法スケールを直接復元するように設計されている。
論文 参考訳(メタデータ) (2023-09-19T02:20:26Z) - Vanishing Point Estimation in Uncalibrated Images with Prior Gravity
Direction [82.72686460985297]
我々はマンハッタンのフレームを推定する問題に取り組む。
2つの新しい2行解法が導出され、そのうちの1つは既存の解法に影響を与える特異点に悩まされない。
また、局所最適化の性能を高めるために、任意の行で実行される新しい最小でないメソッドを設計する。
論文 参考訳(メタデータ) (2023-08-21T13:03:25Z) - EDI: ESKF-based Disjoint Initialization for Visual-Inertial SLAM Systems [9.937997167972743]
本稿では,高速,高精度,堅牢な視覚慣性初期化のための新しい手法を提案する。
提案手法は,3秒未満で平均5.8%の誤差を実現する。
論文 参考訳(メタデータ) (2023-08-04T19:06:58Z) - Learned Monocular Depth Priors in Visual-Inertial Initialization [4.99761983273316]
視覚慣性オドメトリー(VIO)は、今日のほとんどのAR/VRおよび自律ロボットシステムのポーズ推定バックボーンである。
本稿では,古典的視覚慣性構造の限界を回避することを提案する。
学習した単眼深度画像(単眼深度)を利用して特徴の相対的深度を制約し,そのスケールとシフトを最適化することにより,単眼深度をメートル法スケールにアップグレードする。
論文 参考訳(メタデータ) (2022-04-20T00:30:04Z) - DM-VIO: Delayed Marginalization Visual-Inertial Odometry [62.746533939737446]
本稿では,遅延残差化とポーズグラフバンドル調整に基づく視覚慣性システムDM-VIOを提案する。
我々は,EuRoC,TUM-VI,および4Seasonsデータセットを用いて,空飛ぶドローン,大規模ハンドヘルド,自動車シナリオからなるシステムの評価を行った。
論文 参考訳(メタデータ) (2022-01-11T18:30:37Z) - Accurate and Robust Scale Recovery for Monocular Visual Odometry Based
on Plane Geometry [7.169216737580712]
地上面の高精度かつロバストな推定を生かした軽量なスケール復元フレームワークを開発した。
KITTIデータセットの実験により,提案したフレームワークが翻訳誤りの点から最先端の精度を達成できることが示されている。
軽量な設計のため、我々のフレームワークはデータセット上で20Hzの高周波数を示す。
論文 参考訳(メタデータ) (2021-01-15T07:21:24Z) - Pushing the Envelope of Rotation Averaging for Visual SLAM [69.7375052440794]
視覚SLAMシステムのための新しい最適化バックボーンを提案する。
従来の単分子SLAMシステムの精度, 効率, 堅牢性を向上させるために, 平均化を活用している。
我々のアプローチは、公開ベンチマークの最先端技術に対して、同等の精度で最大10倍高速に表示することができる。
論文 参考訳(メタデータ) (2020-11-02T18:02:26Z) - Online Initialization and Extrinsic Spatial-Temporal Calibration for
Monocular Visual-Inertial Odometry [19.955414423860788]
本稿では,最適化に基づく単眼的視覚慣性眼球運動計測(VIO)のオンラインブートストラップ法を提案する。
この方法は、カメラとIMU間の相対変換(空間)と時間オフセット(時間)をオンラインに校正し、計量スケール、速度、重力、ジャイロスコープバイアス、加速度計バイアスを推定することができる。
公開データセットにおける実験結果から,初期値とパラメータ,およびセンサのポーズが,提案手法により正確に推定できることが示唆された。
論文 参考訳(メタデータ) (2020-04-12T03:13:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。