論文の概要: Scale-aware direct monocular odometry
- arxiv url: http://arxiv.org/abs/2109.10077v1
- Date: Tue, 21 Sep 2021 10:30:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-22 20:49:19.216809
- Title: Scale-aware direct monocular odometry
- Title(参考訳): スケールアウェア直接モノクロオドメトリー
- Authors: Carlos Campos and Juan D. Tard\'os
- Abstract要約: 本稿では,深部ニューラルネットワークからの深度予測に基づく直接単分子オードメトリーの枠組みを提案する。
提案手法は,従来の単分子SLAMよりも5倍から9倍精度が高く,ステレオシステムに近い精度である。
- 参考スコア(独自算出の注目度): 4.111899441919165
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a framework for direct monocular odometry based on depth
prediction from a deep neural network. In contrast with existing methods where
depth information is only partially exploited, we formulate a novel depth
prediction residual which allows us to incorporate multi-view depth
information. In addition, we propose to use a truncated robust cost function
which prevents considering inconsistent depth estimations. The photometric and
depth-prediction measurements are integrated in a tightly-coupled optimization
leading to a scale-aware monocular system which does not accumulate scale
drift. We demonstrate the validity of our proposal evaluating it on the KITTI
odometry dataset and comparing it with state-of-the-art monocular and stereo
SLAM systems. Experiments show that our proposal largely outperforms classic
monocular SLAM, being 5 to 9 times more precise, with an accuracy which is
closer to that of stereo systems.
- Abstract(参考訳): 本稿では,深部ニューラルネットワークからの深度予測に基づく直接単分子オードメトリーの枠組みを提案する。
深度情報を部分的にのみ活用する既存の手法とは対照的に、多視点深度情報を組み込むことのできる新しい深度予測残差を定式化する。
さらに,不整合な深さ推定を考慮せずに,コスト関数のトラッピング化を提案する。
光度測定および深度予測測定は、スケールドリフトを蓄積しないスケール対応単分子系につながる密結合最適化に統合される。
キッティオドメトリーデータセット上で評価する提案の有効性を実証し,最新のモノクロおよびステレオスラムシステムとの比較を行った。
実験の結果,提案手法は従来の単分子SLAMよりも5~9倍精度が高く,ステレオシステムに近い精度であることがわかった。
関連論文リスト
- EndoDepthL: Lightweight Endoscopic Monocular Depth Estimation with
CNN-Transformer [0.0]
我々は,CNNとTransformerを統合してマルチスケール深度マップを推定する,EndoDepthLという新しい軽量ソリューションを提案する。
提案手法は,ネットワークアーキテクチャの最適化,マルチスケール拡張畳み込み,マルチチャネルアテンション機構の導入を含む。
内視鏡画像における単眼深度推定の性能をよりよく評価するために,新しい複雑性評価指標を提案する。
論文 参考訳(メタデータ) (2023-08-04T21:38:29Z) - Monocular Visual-Inertial Depth Estimation [66.71452943981558]
単眼深度推定と視覚慣性計測を統合した視覚慣性深度推定パイプラインを提案する。
提案手法は, 疎度度に対する大域的スケールとシフトアライメントを行い, 続いて学習に基づく高密度アライメントを行う。
本研究では,TartanAir と VOID のデータセットを用いて,密集したスケールアライメントによるRMSE の最大30%の削減を観測した。
論文 参考訳(メタデータ) (2023-03-21T18:47:34Z) - Probabilistic Volumetric Fusion for Dense Monocular SLAM [33.156523309257786]
本研究では,高密度単分子SLAMと高速不確実性伝搬を利用して3次元シーンを再構成する手法を提案する。
提案手法は, 極めてノイズの多い深度推定値に対して頑健でありながら, 密集度, 精度, リアルタイムにシーンを3次元再構成することができる。
その結果,本手法は単分子SLAMからの直接拡散深度よりも92%精度が向上し,最大90%の精度向上が得られた。
論文 参考訳(メタデータ) (2022-10-03T23:53:35Z) - RA-Depth: Resolution Adaptive Self-Supervised Monocular Depth Estimation [27.679479140943503]
本研究では,シーン深さのスケール不変性を学習し,自己教師付き単眼深度推定法(RA-Depth)を提案する。
RA-Depthは最先端の性能を達成し、解像度適応の優れた能力を示す。
論文 参考訳(メタデータ) (2022-07-25T08:49:59Z) - Improving Monocular Visual Odometry Using Learned Depth [84.05081552443693]
単眼深度推定を応用して視力計測(VO)を改善する枠組みを提案する。
我々のフレームワークの中核は、多様なシーンに対して強力な一般化能力を持つ単眼深度推定モジュールである。
現在の学習型VO法と比較して,本手法は多様なシーンに対してより強力な一般化能力を示す。
論文 参考訳(メタデータ) (2022-04-04T06:26:46Z) - SelfTune: Metrically Scaled Monocular Depth Estimation through
Self-Supervised Learning [53.78813049373321]
本稿では,事前学習した教師付き単分子深度ネットワークに対する自己教師付き学習手法を提案する。
本手法は移動ロボットナビゲーションなどの様々な応用に有用であり,多様な環境に適用可能である。
論文 参考訳(メタデータ) (2022-03-10T12:28:42Z) - Probabilistic and Geometric Depth: Detecting Objects in Perspective [78.00922683083776]
3次元物体検出は、運転支援システムなどの様々な実用用途で必要とされる重要な機能である。
双眼視やLiDARに頼っている従来の設定に比べて、経済的な解決策として単眼3D検出が注目されているが、それでも満足のいく結果が得られていない。
本稿ではまず,この問題に関する系統的研究を行い,現在の単分子3次元検出問題をインスタンス深度推定問題として単純化できることを考察する。
論文 参考訳(メタデータ) (2021-07-29T16:30:33Z) - CodeVIO: Visual-Inertial Odometry with Learned Optimizable Dense Depth [83.77839773394106]
本稿では,軽量で密結合の深い深度ネットワークと視覚慣性オドメトリーシステムを提案する。
我々は、初期深度予測の精度を高めるために、以前にVIOから切り離されたスパース特徴を持つネットワークを提供する。
本稿では,ネットワークとコードヤコビアンでのみGPUアクセラレーションを活用しながら,シングルスレッド実行でリアルタイムに動作可能であることを示す。
論文 参考訳(メタデータ) (2020-12-18T09:42:54Z) - Variational Monocular Depth Estimation for Reliability Prediction [12.951621755732544]
教師付き学習手法の代替として,単眼深度推定のための自己教師付き学習が広く研究されている。
従来はモデル構造の変更による深度推定の精度向上に成功している。
本稿では, 単眼深度推定のための変分モデルを理論的に定式化し, 推定深度画像の信頼性を推定する。
論文 参考訳(メタデータ) (2020-11-24T06:23:51Z) - D3VO: Deep Depth, Deep Pose and Deep Uncertainty for Monocular Visual
Odometry [57.5549733585324]
D3VOは、深度、ポーズ、不確実性推定という3つのレベルでディープネットワークを利用する、単眼の視覚計測のための新しいフレームワークである。
まず,ステレオビデオを用いた自己監督型単眼深度推定ネットワークを提案する。
入力画像上の画素の光度不確かさをモデル化し、深度推定精度を向上させる。
論文 参考訳(メタデータ) (2020-03-02T17:47:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。