論文の概要: DVIO: Depth aided visual inertial odometry for RGBD sensors
- arxiv url: http://arxiv.org/abs/2110.10805v1
- Date: Wed, 20 Oct 2021 22:12:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-22 17:41:02.657752
- Title: DVIO: Depth aided visual inertial odometry for RGBD sensors
- Title(参考訳): DVIO:RGBDセンサの深度支援型視覚慣性計測
- Authors: Abhishek Tyagi, Yangwen Liang, Shuangquan Wang, Dongwoon Bai
- Abstract要約: 本稿では、RGBDセンサと慣性計測ユニット(IMU)センサを用いて、モバイルデバイスの動作状態を推定する新しい視覚慣性オドメトリー(VIO)システムを提案する。
このシステムはDVIO(Deep-Aided VIO)システムと呼ばれる。
- 参考スコア(独自算出の注目度): 7.745106319694523
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In past few years we have observed an increase in the usage of RGBD sensors
in mobile devices. These sensors provide a good estimate of the depth map for
the camera frame, which can be used in numerous augmented reality applications.
This paper presents a new visual inertial odometry (VIO) system, which uses
measurements from a RGBD sensor and an inertial measurement unit (IMU) sensor
for estimating the motion state of the mobile device. The resulting system is
called the depth-aided VIO (DVIO) system. In this system we add the depth
measurement as part of the nonlinear optimization process. Specifically, we
propose methods to use the depth measurement using one-dimensional (1D) feature
parameterization as well as three-dimensional (3D) feature parameterization. In
addition, we propose to utilize the depth measurement for estimating time
offset between the unsynchronized IMU and the RGBD sensors. Last but not least,
we propose a novel block-based marginalization approach to speed up the
marginalization processes and maintain the real-time performance of the overall
system. Experimental results validate that the proposed DVIO system outperforms
the other state-of-the-art VIO systems in terms of trajectory accuracy as well
as processing time.
- Abstract(参考訳): 近年,モバイルデバイスにおけるRGBDセンサの利用が増加していることが報告されている。
これらのセンサーは、カメラフレームの深度マップを適切に推定し、多くの拡張現実アプリケーションで使用できる。
本稿では,rgbdセンサと慣性測定ユニット(imu)センサを用いて,モバイルデバイスの動作状態を推定する新しい視覚慣性オドメトリ(vio)システムを提案する。
このシステムはDVIO(Deep-Aided VIO)システムと呼ばれる。
本システムでは非線形最適化プロセスの一部として深度測定を追加する。
具体的には,1次元(1D)特徴パラメータ化と3次元(3D)特徴パラメータ化を用いた深度測定手法を提案する。
また,非同期imuセンサとrgbdセンサとの時間オフセットを推定するために,深さ測定の活用を提案する。
最後に,限界化プロセスの高速化と,システム全体のリアルタイム性能を維持するために,ブロックベースの新たな限界化手法を提案する。
実験により,提案したDVIOシステムは,軌道精度および処理時間の観点から,他の最先端のVIOシステムよりも優れていることを確認した。
関連論文リスト
- Camera Motion Estimation from RGB-D-Inertial Scene Flow [9.192660643226372]
シーンフローを通してRGB-D画像と慣性データを統合するカメラモーション推定の新しい定式化を提案する。
我々の目標は、慣性測定ユニット(IMU)の状態とともに、剛性3次元環境におけるカメラの動きを正確に推定することである。
論文 参考訳(メタデータ) (2024-04-26T08:42:59Z) - MM3DGS SLAM: Multi-modal 3D Gaussian Splatting for SLAM Using Vision, Depth, and Inertial Measurements [59.70107451308687]
カメラ画像と慣性測定による地図表現に3Dガウスアンを用いることで、精度の高いSLAMが実現できることを示す。
我々の手法であるMM3DGSは、より高速なスケール認識と軌道追跡の改善により、事前レンダリングの限界に対処する。
また,カメラと慣性測定ユニットを備えた移動ロボットから収集したマルチモーダルデータセットUT-MMもリリースした。
論文 参考訳(メタデータ) (2024-04-01T04:57:41Z) - Multi-Modal Neural Radiance Field for Monocular Dense SLAM with a
Light-Weight ToF Sensor [58.305341034419136]
単眼カメラと軽量ToFセンサを備えた初の高密度SLAMシステムを提案する。
本稿では,RGBカメラと軽量ToFセンサの両方の信号のレンダリングをサポートするマルチモーダル暗黙のシーン表現を提案する。
実験により,本システムは軽量なToFセンサの信号をうまく利用し,競合的な結果が得られることが示された。
論文 参考訳(メタデータ) (2023-08-28T07:56:13Z) - On the Importance of Accurate Geometry Data for Dense 3D Vision Tasks [61.74608497496841]
不正確または破損したデータのトレーニングは、モデルバイアスとハマーズ一般化能力を誘導する。
本稿では,深度推定と再構成における高密度3次元視覚課題に対するセンサ誤差の影響について検討する。
論文 参考訳(メタデータ) (2023-03-26T22:32:44Z) - DELTAR: Depth Estimation from a Light-weight ToF Sensor and RGB Image [39.389538555506256]
我々は,高分解能かつ高精度な深度測定機能を備えた軽量ToFセンサを実現する新しい手法であるDELTARを提案する。
DELTARの中核として、深度分布用にカスタマイズされた特徴抽出器と注意に基づくニューラルアーキテクチャを提案し、色とToF領域からの情報を効率的に融合させる。
実験により,提案手法は深度分解能と深度超解像のために設計された既存のフレームワークよりも精度が高く,コモディティレベルのRGB-Dセンサで同等の性能が得られることが示された。
論文 参考訳(メタデータ) (2022-09-27T13:11:37Z) - Depth Estimation Matters Most: Improving Per-Object Depth Estimation for
Monocular 3D Detection and Tracking [47.59619420444781]
検出・追跡を含む単眼的3D知覚へのアプローチは、LiDARベースの手法と比較して性能が劣ることが多い。
本稿では,オブジェクト(トラックレット)の複数のフレームに異なる表現(RGBと擬似LiDAR)と時間情報を組み合わせた多層融合手法を提案する。
論文 参考訳(メタデータ) (2022-06-08T03:37:59Z) - Learning Online Multi-Sensor Depth Fusion [100.84519175539378]
SenFuNetは、センサ固有のノイズと外れ値統計を学習するディープフュージョンアプローチである。
実世界のCoRBSとScene3Dデータセットで様々なセンサーの組み合わせで実験を行う。
論文 参考訳(メタデータ) (2022-04-07T10:45:32Z) - Joint Learning of Salient Object Detection, Depth Estimation and Contour
Extraction [91.43066633305662]
RGB-D Salient Object Detection (SOD) のための新しいマルチタスク・マルチモーダルフィルタトランス (MMFT) ネットワークを提案する。
具体的には、深度推定、健全な物体検出、輪郭推定の3つの相補的なタスクを統合する。マルチタスク機構は、タスク認識の特徴を補助タスクから学習するためのモデルを促進する。
実験の結果、複数のデータセット上での深度に基づくRGB-D SOD法をはるかに上回るだけでなく、高品質の深度マップと塩分濃度を同時に正確に予測できることがわかった。
論文 参考訳(メタデータ) (2022-03-09T17:20:18Z) - Incremental learning of LSTM framework for sensor fusion in attitude
estimation [2.064612766965483]
本稿では,Long-Short Term Memory (LSTM) ネットワークの漸進的学習による3次元空間における物体の姿勢推定手法を提案する。
慣性センサデータはLSTMネットワークに送られ、徐々に更新され、実行時に発生する動作の動的変化を組み込む。
提案フレームワークは,高度に動的な環境であっても,従来の手法と比較して,結果を著しく改善する。
論文 参考訳(メタデータ) (2021-08-04T09:03:53Z) - D3VO: Deep Depth, Deep Pose and Deep Uncertainty for Monocular Visual
Odometry [57.5549733585324]
D3VOは、深度、ポーズ、不確実性推定という3つのレベルでディープネットワークを利用する、単眼の視覚計測のための新しいフレームワークである。
まず,ステレオビデオを用いた自己監督型単眼深度推定ネットワークを提案する。
入力画像上の画素の光度不確かさをモデル化し、深度推定精度を向上させる。
論文 参考訳(メタデータ) (2020-03-02T17:47:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。