論文の概要: Towards Scale-Aware, Robust, and Generalizable Unsupervised Monocular
Depth Estimation by Integrating IMU Motion Dynamics
- arxiv url: http://arxiv.org/abs/2207.04680v1
- Date: Mon, 11 Jul 2022 07:50:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-12 14:54:36.880018
- Title: Towards Scale-Aware, Robust, and Generalizable Unsupervised Monocular
Depth Estimation by Integrating IMU Motion Dynamics
- Title(参考訳): IMU運動ダイナミクスの統合によるスケールアウェア、ロバスト、および一般化不可能な単眼深度推定に向けて
- Authors: Sen Zhang, Jing Zhang, and Dacheng Tao
- Abstract要約: 教師なし単眼深度と自我運動推定は近年広く研究されている。
我々は、視覚情報とIMUモーションダイナミクスを統合した新しいスケールアウェアフレームワークDynaDepthを提案する。
我々は、KITTIおよびMake3Dデータセット上で広範囲な実験とシミュレーションを行うことにより、DynaDepthの有効性を検証する。
- 参考スコア(独自算出の注目度): 74.1720528573331
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised monocular depth and ego-motion estimation has drawn extensive
research attention in recent years. Although current methods have reached a
high up-to-scale accuracy, they usually fail to learn the true scale metric due
to the inherent scale ambiguity from training with monocular sequences. In this
work, we tackle this problem and propose DynaDepth, a novel scale-aware
framework that integrates information from vision and IMU motion dynamics.
Specifically, we first propose an IMU photometric loss and a cross-sensor
photometric consistency loss to provide dense supervision and absolute scales.
To fully exploit the complementary information from both sensors, we further
drive a differentiable camera-centric extended Kalman filter (EKF) to update
the IMU preintegrated motions when observing visual measurements. In addition,
the EKF formulation enables learning an ego-motion uncertainty measure, which
is non-trivial for unsupervised methods. By leveraging IMU during training,
DynaDepth not only learns an absolute scale, but also provides a better
generalization ability and robustness against vision degradation such as
illumination change and moving objects. We validate the effectiveness of
DynaDepth by conducting extensive experiments and simulations on the KITTI and
Make3D datasets.
- Abstract(参考訳): 教師なし単眼深度と自我運動推定は近年広く研究の注目を集めている。
現在の手法は高い精度に達しているが、単眼列の訓練から固有のスケールあいまいさのため、通常は真のスケールメトリックを学習できない。
本研究では,この課題に対処し,視覚情報とIMUモーションダイナミクスを統合した新しいスケールアウェアフレームワークDynaDepthを提案する。
具体的には,imuフォトメトリックロスとクロスセンサーフォトメトリック一貫性ロスを提案し,密接な監督と絶対スケールを提供する。
両センサの相補的な情報をフル活用するために,カメラ中心の拡張カルマンフィルタ(EKF)を駆動し,視覚計測を観察する際のIMU事前積分動作を更新する。
さらに、ekfの定式化により、教師なしの手法では自我運動の不確実性測度の学習が可能となる。
トレーニング中に imu を活用することで、dynadepth は絶対的なスケールを学ぶだけでなく、照明変化や移動物体といった視覚の劣化に対するより良い一般化能力と堅牢性を提供する。
我々は、KITTIおよびMake3Dデータセット上で広範囲な実験とシミュレーションを行うことにより、DynaDepthの有効性を検証する。
関連論文リスト
- 3D Multi-Object Tracking with Semi-Supervised GRU-Kalman Filter [6.13623925528906]
3D Multi-Object Tracking (MOT)は、自律運転やロボットセンシングのようなインテリジェントなシステムに不可欠である。
本稿では,学習可能なカルマンフィルタを移動モジュールに導入するGRUベースのMOT法を提案する。
このアプローチは、データ駆動学習を通じてオブジェクトの動き特性を学習することができ、手動モデル設計やモデルエラーを回避することができる。
論文 参考訳(メタデータ) (2024-11-13T08:34:07Z) - Masked Video and Body-worn IMU Autoencoder for Egocentric Action Recognition [24.217068565936117]
本稿では,身近なIMUの動作データをエゴセントリックなビデオと統合する行動認識手法を提案する。
体全体に配置された複数のIMUデバイスの複雑な関係をモデル化するために、複数のIMUデバイスにおける協調力学を利用する。
実験により,提案手法は複数の公開データセット上で最先端の性能を実現することができることが示された。
論文 参考訳(メタデータ) (2024-07-09T07:53:16Z) - DO3D: Self-supervised Learning of Decomposed Object-aware 3D Motion and
Depth from Monocular Videos [76.01906393673897]
本研究では,モノクラービデオから3次元運動と深度を協調的に学習する自己教師手法を提案する。
本システムでは,深度を推定する深度推定モジュールと,エゴモーションと3次元物体の動きを推定する新しい分解対象3次元運動推定モジュールを備える。
我々のモデルは評価されたすべての設定において優れたパフォーマンスを提供する。
論文 参考訳(メタデータ) (2024-03-09T12:22:46Z) - Transformer Inertial Poser: Attention-based Real-time Human Motion
Reconstruction from Sparse IMUs [79.72586714047199]
本研究では,6つのIMUセンサからリアルタイムに全体動作を再構築する,注意に基づく深層学習手法を提案する。
提案手法は, 実装が簡単で, 小型でありながら, 定量的かつ質的に新しい結果が得られる。
論文 参考訳(メタデータ) (2022-03-29T16:24:52Z) - Disentangling Object Motion and Occlusion for Unsupervised Multi-frame
Monocular Depth [37.021579239596164]
既存の動的対象に焦点をあてた手法は、トレーニング損失レベルのミスマッチ問題を部分的に解決しただけである。
本稿では,これらの問題を予測レベルと監督損失レベルの両方で解くために,新しい多フレーム単眼深度予測法を提案する。
我々の手法はDynamicDepthと呼ばれ、自己教師付きサイクル一貫性学習スキームによって訓練された新しいフレームワークである。
論文 参考訳(メタデータ) (2022-03-29T01:36:11Z) - Towards Scale Consistent Monocular Visual Odometry by Learning from the
Virtual World [83.36195426897768]
仮想データから絶対スケールを取得するための新しいフレームワークであるVRVOを提案する。
まず、モノクロ実画像とステレオ仮想データの両方を用いて、スケール対応の異種ネットワークをトレーニングする。
結果として生じるスケール一貫性の相違は、直接VOシステムと統合される。
論文 参考訳(メタデータ) (2022-03-11T01:51:54Z) - Self-Supervised Monocular Depth and Ego-Motion Estimation in Endoscopy:
Appearance Flow to the Rescue [38.168759071532676]
単眼ビデオから深度とエゴモーションを計算するために,自己教師付き学習技術が応用されている。
本研究では,明るさの不整合問題に対処するため,外観フローと呼ばれる新しい概念を導入する。
我々は,単眼深度と自我運動を同時に推定する統合的な自己監督フレームワークを構築した。
論文 参考訳(メタデータ) (2021-12-15T13:51:10Z) - Attentive and Contrastive Learning for Joint Depth and Motion Field
Estimation [76.58256020932312]
単眼視システムからシーンの3次元構造とともにカメラの動きを推定することは複雑な作業である。
モノクロ映像からの3次元物体運動場推定のための自己教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T16:45:01Z) - Unsupervised Scale-consistent Depth Learning from Video [131.3074342883371]
本研究では,単眼深度推定器SC-Depthを提案する。
スケール一貫性予測の能力により,我々の単分子学習深層ネットワークは簡単にORB-SLAM2システムに統合可能であることを示す。
提案したハイブリッドPseudo-RGBD SLAMは、KITTIにおいて魅力的な結果を示し、追加のトレーニングなしでKAISTデータセットにうまく一般化する。
論文 参考訳(メタデータ) (2021-05-25T02:17:56Z) - Movement Tracking by Optical Flow Assisted Inertial Navigation [18.67291804847956]
学習に基づく光フローモデルと従来の慣性ナビゲーションを組み合わせる方法を示す。
確率的深層学習のアイデアが測定更新の堅牢性にどのように役立つかを示す。
この実用性は、iPadが取得した現実世界のデータで実証されている。
論文 参考訳(メタデータ) (2020-06-24T16:36:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。