論文の概要: Monocular Visual-Inertial Depth Estimation
- arxiv url: http://arxiv.org/abs/2303.12134v1
- Date: Tue, 21 Mar 2023 18:47:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-23 16:25:55.127473
- Title: Monocular Visual-Inertial Depth Estimation
- Title(参考訳): 単眼視慣性深度推定
- Authors: Diana Wofk, Ren\'e Ranftl, Matthias M\"uller, and Vladlen Koltun
- Abstract要約: 単眼深度推定と視覚慣性計測を統合した視覚慣性深度推定パイプラインを提案する。
提案手法は, 疎度度に対する大域的スケールとシフトアライメントを行い, 続いて学習に基づく高密度アライメントを行う。
本研究では,TartanAir と VOID のデータセットを用いて,密集したスケールアライメントによるRMSE の最大30%の削減を観測した。
- 参考スコア(独自算出の注目度): 66.71452943981558
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a visual-inertial depth estimation pipeline that integrates
monocular depth estimation and visual-inertial odometry to produce dense depth
estimates with metric scale. Our approach performs global scale and shift
alignment against sparse metric depth, followed by learning-based dense
alignment. We evaluate on the TartanAir and VOID datasets, observing up to 30%
reduction in inverse RMSE with dense scale alignment relative to performing
just global alignment alone. Our approach is especially competitive at low
density; with just 150 sparse metric depth points, our dense-to-dense depth
alignment method achieves over 50% lower iRMSE over sparse-to-dense depth
completion by KBNet, currently the state of the art on VOID. We demonstrate
successful zero-shot transfer from synthetic TartanAir to real-world VOID data
and perform generalization tests on NYUv2 and VCU-RVI. Our approach is modular
and is compatible with a variety of monocular depth estimation models. Video:
https://youtu.be/IMwiKwSpshQ Code: https://github.com/isl-org/VI-Depth
- Abstract(参考訳): 本稿では,単眼深度推定と視覚慣性オドメトリーを統合し,メートル法を用いて深度推定を行うビジュアル慣性深度推定パイプラインを提案する。
このアプローチでは,グローバルスケールとシフトアライメントをスパースメトリック深さに対して実行し,学習に基づく密密なアライメントを行う。
我々は,TartanAirおよびVOIDデータセットを用いて,グローバルアライメントのみの実行に対して,高密度スケールアライメントを伴う逆RMSEの最大30%の削減を観測した。
我々のアプローチは特に低密度で競争力があり、150の疎度深度しか持たず、この密度深度アライメント法は、現在VOID技術の現状であるKBNetによる疎度深度コンプリートよりも50%低いIRMSEを実現している。
我々は、合成TartanAirから実世界のVOIDデータへのゼロショット転送を成功させ、NYUv2およびVCU-RVI上で一般化試験を行った。
我々のアプローチはモジュラーであり、様々な単眼深度推定モデルと互換性がある。
ビデオ: https://youtu.be/IMwiKwSpshQコード: https://github.com/isl-org/VI-Depth
関連論文リスト
- MetricGold: Leveraging Text-To-Image Latent Diffusion Models for Metric Depth Estimation [9.639797094021988]
MetricGoldは、生成拡散モデルの豊富な先行値を利用して、メートル法深さ推定を改善する新しいアプローチである。
我々の実験は、多様なデータセットをまたいだ堅牢な一般化を実証し、よりシャープで高品質なメートル法深さ推定を導出する。
論文 参考訳(メタデータ) (2024-11-16T20:59:01Z) - ScaleDepth: Decomposing Metric Depth Estimation into Scale Prediction and Relative Depth Estimation [62.600382533322325]
本研究では,新しい単分子深度推定法であるScaleDepthを提案する。
提案手法は,距離深度をシーンスケールと相対深度に分解し,セマンティック・アウェア・スケール予測モジュールを用いて予測する。
本手法は,室内と屋外の両方のシーンを統一した枠組みで距離推定する。
論文 参考訳(メタデータ) (2024-07-11T05:11:56Z) - Depth-aware Volume Attention for Texture-less Stereo Matching [67.46404479356896]
実用的な屋外シナリオにおけるテクスチャ劣化に対処する軽量なボリューム改善手法を提案する。
画像テクスチャの相対的階層を抽出し,地中深度マップによって教師される深度体積を導入する。
局所的な微細構造と文脈は、体積凝集時のあいまいさと冗長性を緩和するために強調される。
論文 参考訳(メタデータ) (2024-02-14T04:07:44Z) - Metrically Scaled Monocular Depth Estimation through Sparse Priors for
Underwater Robots [0.0]
三角特徴量からのスパース深度測定を融合して深度予測を改善する深度学習モデルを定式化する。
このネットワークは、前方に見える水中データセットFLSeaで教師ありの方法で訓練されている。
この方法は、ラップトップGPUで160FPS、単一のCPUコアで7FPSで実行することで、リアルタイムのパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-10-25T16:32:31Z) - DesNet: Decomposed Scale-Consistent Network for Unsupervised Depth
Completion [28.91716162403531]
教師なし深度補完は、接地トラスアノテーションを使わずにスパースから密集した深度を回復することを目的としている。
本研究では,絶対深度を相対深度予測とグローバルスケール推定に分解するDSCL戦略を提案する。
提案手法は,室内のNYUv2データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-11-20T14:56:18Z) - Improving Monocular Visual Odometry Using Learned Depth [84.05081552443693]
単眼深度推定を応用して視力計測(VO)を改善する枠組みを提案する。
我々のフレームワークの中核は、多様なシーンに対して強力な一般化能力を持つ単眼深度推定モジュールである。
現在の学習型VO法と比較して,本手法は多様なシーンに対してより強力な一般化能力を示す。
論文 参考訳(メタデータ) (2022-04-04T06:26:46Z) - SelfTune: Metrically Scaled Monocular Depth Estimation through
Self-Supervised Learning [53.78813049373321]
本稿では,事前学習した教師付き単分子深度ネットワークに対する自己教師付き学習手法を提案する。
本手法は移動ロボットナビゲーションなどの様々な応用に有用であり,多様な環境に適用可能である。
論文 参考訳(メタデータ) (2022-03-10T12:28:42Z) - CodeVIO: Visual-Inertial Odometry with Learned Optimizable Dense Depth [83.77839773394106]
本稿では,軽量で密結合の深い深度ネットワークと視覚慣性オドメトリーシステムを提案する。
我々は、初期深度予測の精度を高めるために、以前にVIOから切り離されたスパース特徴を持つネットワークを提供する。
本稿では,ネットワークとコードヤコビアンでのみGPUアクセラレーションを活用しながら,シングルスレッド実行でリアルタイムに動作可能であることを示す。
論文 参考訳(メタデータ) (2020-12-18T09:42:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。