論文の概要: An Empirical Evaluation of Four Off-the-Shelf Proprietary
Visual-Inertial Odometry Systems
- arxiv url: http://arxiv.org/abs/2207.06780v1
- Date: Thu, 14 Jul 2022 09:40:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-15 14:57:17.608951
- Title: An Empirical Evaluation of Four Off-the-Shelf Proprietary
Visual-Inertial Odometry Systems
- Title(参考訳): 市販の4種類の視覚-慣性オドメトリーシステムの実証評価
- Authors: Jungha Kim, Minkyeong Song, Yeoeun Lee, Moonkyeong Jung, Pyojin Kim
- Abstract要約: しかし、既存の結果から、商用VIOプラットフォームが最も安定し、一貫性があり、室内および屋外のロボットアプリケーションに対する状態推定の点において正確であるかどうかは不明である。
Apple ARKit, Google ARCore, Intel RealSense T265, Stereolabs ZED 2) の4つのプロプライエタリな VIO システムを評価する。
- 参考スコア(独自算出の注目度): 5.608792296235225
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Commercial visual-inertial odometry (VIO) systems have been gaining attention
as cost-effective, off-the-shelf six degrees of freedom (6-DoF) ego-motion
tracking methods for estimating accurate and consistent camera pose data, in
addition to their ability to operate without external localization from motion
capture or global positioning systems. It is unclear from existing results,
however, which commercial VIO platforms are the most stable, consistent, and
accurate in terms of state estimation for indoor and outdoor robotic
applications. We assess four popular proprietary VIO systems (Apple ARKit,
Google ARCore, Intel RealSense T265, and Stereolabs ZED 2) through a series of
both indoor and outdoor experiments where we show their positioning stability,
consistency, and accuracy. We present our complete results as a benchmark
comparison for the research community.
- Abstract(参考訳): 商業用視覚慣性オドメトリー (VIO) システムは, 高精度で一貫したカメラポーズデータを推定するための6自由度(6-DoF)エゴモーショントラッキング手法として, かつ, モーションキャプチャやグローバル位置決めシステムから外部位置を指定せずに操作できる機能として注目されている。
しかし、既存の結果からは、商用VIOプラットフォームが最も安定し、一貫性があり、室内および屋外のロボットアプリケーションに対する状態推定の点で正確であるかどうかは不明である。
apple arkit, google arcore, intel realsense t265, stereolabs zed 2) の4つの人気のある vio システムを評価し,その位置安定性,一貫性,正確性を示した。
我々は,研究コミュニティのためのベンチマーク比較として,完全な結果を示す。
関連論文リスト
- Commissioning An All-Sky Infrared Camera Array for Detection Of Airborne Objects [0.11703603440337004]
ガリレオ計画では、空を継続的に監視する多モード地上観測所を設計、建設、委託している。
鍵となる機器の1つは、8つの冷却されていない長波長のFLIRボソン640カメラを使用した全天型赤外線カメラアレイである。
各種気象条件に対する受入率(観測可能な航空機等)と検出効率(検出に成功している航空機等)を報告する。
おもちゃのアウトリーチは2次元再構成トラジェクトリーフラッグの大きな不純物に焦点を絞ったもので、トラジェクトリーの約16%をアウトリーチとして用いた。
論文 参考訳(メタデータ) (2024-11-12T17:31:51Z) - ES-PTAM: Event-based Stereo Parallel Tracking and Mapping [11.801511288805225]
イベントカメラは、標準的なカメラの限界を克服する利点を提供する。
2つのアイデアを組み合わせたイベントベースステレオVOシステムを提案する。
実世界の5つのデータセットからシステムを評価する。
論文 参考訳(メタデータ) (2024-08-28T07:56:28Z) - Robust Collaborative Perception without External Localization and Clock Devices [52.32342059286222]
複数のエージェントをまたいだ一貫した空間的時間的調整は、協調的な知覚の基礎である。
従来の手法は、ローカライゼーションとクロック信号を提供するために外部デバイスに依存している。
本稿では,様々なエージェントの知覚データに内在する幾何学的パターンを認識して整列する手法を提案する。
論文 参考訳(メタデータ) (2024-05-05T15:20:36Z) - High-accuracy Vision-Based Attitude Estimation System for Air-Bearing
Spacecraft Simulators [0.0]
本稿では, 単眼カメラとフィデューシャルマーカーのセットを用いて, 回転空調プラットフォームに対する姿勢を計算するための, 新規で汎用的な手法について述べる。
システムパラメータの予備推定を行う自動校正手順を示す。
その結果,約12arcsecと$sim$37arcsecの順に1-sigmaの精度が期待された。
論文 参考訳(メタデータ) (2023-12-13T13:55:36Z) - Robust Localization with Visual-Inertial Odometry Constraints for
Markerless Mobile AR [2.856126556871729]
本稿では、絶対的なポーズ回帰器とローカルなVIOトラッキングシステムを組み合わせた、マーカーレスモバイルARのための新しいフレームワークであるVIO-APRを紹介する。
VIO-APRはVIOを用いてAPRとAPRの信頼性を評価し、VIOドリフトの識別と補償を行う。
私たちは、その能力を実証するためにUnityを使用してモバイルARアプリケーションにVIO-APRを実装します。
論文 参考訳(メタデータ) (2023-08-10T07:21:35Z) - A Flexible-Frame-Rate Vision-Aided Inertial Object Tracking System for
Mobile Devices [3.4836209951879957]
本稿では,モバイルデバイス用フレキシブルフレームレートオブジェクトポーズ推定とトラッキングシステムを提案する。
高速トラッキングのためにクライアント側で慣性計測ユニット(IMU)ポーズ伝搬を行い、サーバ側でRGB画像ベースの3Dポーズ推定を行う。
我々のシステムは120FPSまでのフレキシブルフレームレートをサポートし、ローエンドデバイス上での高精度かつリアルタイムなトラッキングを保証する。
論文 参考訳(メタデータ) (2022-10-22T15:26:50Z) - LaMAR: Benchmarking Localization and Mapping for Augmented Reality [80.23361950062302]
異種ARデバイスでキャプチャされたリアルな軌跡とセンサストリームを共登録する,包括的キャプチャとGTパイプラインを備えた新しいベンチマークであるLaMARを紹介する。
私たちは、ヘッドマウントとハンドヘルドARデバイスで記録された多様な大規模シーンのベンチマークデータセットを公開します。
論文 参考訳(メタデータ) (2022-10-19T17:58:17Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - Deep Learning for Real Time Satellite Pose Estimation on Low Power Edge
TPU [58.720142291102135]
本稿では,ニューラルネットワークアーキテクチャを利用したポーズ推定ソフトウェアを提案する。
我々は、低消費電力の機械学習アクセラレーターが宇宙での人工知能の活用を可能にしていることを示す。
論文 参考訳(メタデータ) (2022-04-07T08:53:18Z) - Towards Scale Consistent Monocular Visual Odometry by Learning from the
Virtual World [83.36195426897768]
仮想データから絶対スケールを取得するための新しいフレームワークであるVRVOを提案する。
まず、モノクロ実画像とステレオ仮想データの両方を用いて、スケール対応の異種ネットワークをトレーニングする。
結果として生じるスケール一貫性の相違は、直接VOシステムと統合される。
論文 参考訳(メタデータ) (2022-03-11T01:51:54Z) - Visual-tactile sensing for Real-time liquid Volume Estimation in
Grasping [58.50342759993186]
変形性容器内の液体をリアルタイムに推定するためのビジュオ触覚モデルを提案する。
我々は、RGBカメラからの生の視覚入力と、特定の触覚センサーからの触覚手がかりの2つの感覚モードを融合する。
ロボットシステムは、推定モデルに基づいて、リアルタイムで適切に制御され、調整される。
論文 参考訳(メタデータ) (2022-02-23T13:38:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。