論文の概要: Unsupervised Deep Persistent Monocular Visual Odometry and Depth
Estimation in Extreme Environments
- arxiv url: http://arxiv.org/abs/2011.00341v1
- Date: Sat, 31 Oct 2020 19:10:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 04:19:55.360636
- Title: Unsupervised Deep Persistent Monocular Visual Odometry and Depth
Estimation in Extreme Environments
- Title(参考訳): 極端環境における無監督深部単眼眼視計測と深度推定
- Authors: Yasin Almalioglu, Angel Santamaria-Navarro, Benjamin Morrell,
Ali-akbar Agha-mohammadi
- Abstract要約: 教師なしの深層学習アプローチは、未ラベルの単分子画像列から深度と視覚計測(VO)を推定するために大きな注目を集めている。
そこで本稿では,RGB画像列からカメラの6自由度ポーズとシーンの深度マップを予測する,教師なし単眼深度VOフレームワークを提案する。
提案手法は, 従来の非教師付き深度VO法と非教師付き深度VO法の両方より優れ, ポーズ推定と深度回復の両面で良好な結果が得られる。
- 参考スコア(独自算出の注目度): 7.197188771058501
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, unsupervised deep learning approaches have received
significant attention to estimate the depth and visual odometry (VO) from
unlabelled monocular image sequences. However, their performance is limited in
challenging environments due to perceptual degradation, occlusions and rapid
motions. Moreover, the existing unsupervised methods suffer from the lack of
scale-consistency constraints across frames, which causes that the VO
estimators fail to provide persistent trajectories over long sequences. In this
study, we propose an unsupervised monocular deep VO framework that predicts
six-degrees-of-freedom pose camera motion and depth map of the scene from
unlabelled RGB image sequences. We provide detailed quantitative and
qualitative evaluations of the proposed framework on a) a challenging dataset
collected during the DARPA Subterranean challenge; and b) the benchmark KITTI
and Cityscapes datasets. The proposed approach outperforms both traditional and
state-of-the-art unsupervised deep VO methods providing better results for both
pose estimation and depth recovery. The presented approach is part of the
solution used by the COSTAR team participating at the DARPA Subterranean
Challenge.
- Abstract(参考訳): 近年、教師なしのディープラーニングアプローチは、ラベルなし単眼画像列から奥行きと視覚オドメトリ(vo)を推定するために大きな注目を集めている。
しかし, 知覚的低下, 咬合, 急速運動などにより, 困難環境下での性能は限られている。
さらに、既存の教師なし手法はフレーム間のスケール一貫性の制約の欠如に悩まされ、VO推定器は長い列に永続的な軌道を与えない。
本研究では,RGB画像列から撮影シーンの6自由度ポーズカメラの動きと深度マップを予測する,教師なし単眼深度VOフレームワークを提案する。
提案フレームワークの詳細な定量的および定性評価を行う。
a) darpa subterranean challenge中に収集された挑戦的データセット
b)KITTIおよびCityscapesデータセットのベンチマーク。
提案手法は, 姿勢推定と奥行き復元の両方において, 従来法, 最先端法, 教師なし深部vo法を上回っている。
提案されたアプローチは、DARPA Subterranean Challengeに参加するCOSTARチームが使用するソリューションの一部である。
関連論文リスト
- The RoboDepth Challenge: Methods and Advancements Towards Robust Depth Estimation [97.63185634482552]
我々は,RoboDepth Challengeの優勝ソリューションを要約する。
この課題は、堅牢なOoD深度推定を容易にし、前進させるように設計された。
この課題が、堅牢で信頼性の高い深度推定に関する将来の研究の基盤となることを願っている。
論文 参考訳(メタデータ) (2023-07-27T17:59:56Z) - BEVScope: Enhancing Self-Supervised Depth Estimation Leveraging
Bird's-Eye-View in Dynamic Scenarios [12.079195812249747]
現在の自己教師型深度推定法にはいくつかの制限がある。
本稿では,自己教師型深度推定手法であるBEVScopeを提案する。
本研究では,移動物体に付随する複雑性を緩和する適応的損失関数を提案する。
論文 参考訳(メタデータ) (2023-06-20T15:16:35Z) - MaskingDepth: Masked Consistency Regularization for Semi-supervised
Monocular Depth Estimation [38.09399326203952]
MaskingDepthは単眼深度推定のための新しい半教師付き学習フレームワークである。
強く拡張された未ラベルデータと、弱い拡張された未ラベルデータから派生した擬似ラベルとの間の一貫性を強制する。
論文 参考訳(メタデータ) (2022-12-21T06:56:22Z) - SC-DepthV3: Robust Self-supervised Monocular Depth Estimation for
Dynamic Scenes [58.89295356901823]
自己監督型単眼深度推定は静的な場面で顕著な結果を示した。
トレーニングネットワークのマルチビュー整合性の仮定に依存するが、動的オブジェクト領域に違反する。
単一画像の深度を事前に生成するための,外部トレーニング付き単眼深度推定モデルを提案する。
我々のモデルは、高度にダイナミックなシーンのモノクロビデオからトレーニングしても、シャープで正確な深度マップを予測できる。
論文 参考訳(メタデータ) (2022-11-07T16:17:47Z) - On Robust Cross-View Consistency in Self-Supervised Monocular Depth Estimation [56.97699793236174]
本論文では,2種類の堅牢なクロスビュー整合性について検討する。
深度特徴空間と3次元ボクセル空間の時間的コヒーレンスを自己教師付き単眼深度推定に利用した。
いくつかのアウトドアベンチマークの実験結果から,本手法は最先端技術より優れていることが示された。
論文 参考訳(メタデータ) (2022-09-19T03:46:13Z) - Learning Occlusion-Aware Coarse-to-Fine Depth Map for Self-supervised
Monocular Depth Estimation [11.929584800629673]
自己教師付き単眼深度推定のためのOcclusion-aware Coarse-to-Fine Depth Mapを学習するための新しいネットワークを提案する。
提案したOCFD-Netは,粗度深度マップの学習に離散深度制約を用いるだけでなく,シーン深度残差の学習にも連続深度制約を用いる。
論文 参考訳(メタデータ) (2022-03-21T12:43:42Z) - A high-precision self-supervised monocular visual odometry in foggy
weather based on robust cycled generative adversarial networks and multi-task
learning aided depth estimation [0.0]
本稿では,霧の天候下でのナビゲーションに特化して設計された,高精度な自己監督型単分子VOを提案する。
サイクル生成対向ネットワークは、前と後ろの半サイクルに一貫した推定を強制することで、高品質な自己監督的損失を得るように設計されている。
霧の天候における自己監督的損失に対する複雑な光度変化の干渉を取り除くため、勾配に基づく損失と知覚的損失が導入された。
論文 参考訳(メタデータ) (2022-03-09T15:41:57Z) - Unsupervised Monocular Depth Reconstruction of Non-Rigid Scenes [87.91841050957714]
本稿では,ダイナミックシーンの深度推定のための非監視単眼フレームワークを提案する。
再構成した3次元点間の対数距離を日和見的に保存することを目的とした訓練目標を導出する。
提案手法は,非剛性シーンの挑戦的な映像から3Dを再構成する能力を実証し,有望な結果を提供する。
論文 参考訳(メタデータ) (2020-12-31T16:02:03Z) - DeFeat-Net: General Monocular Depth via Simultaneous Unsupervised
Representation Learning [65.94499390875046]
DeFeat-Netは、クロスドメインの高密度な特徴表現を同時に学習するアプローチである。
提案手法は, 誤差対策を全て10%程度減らすことで, 最先端技術よりも優れる。
論文 参考訳(メタデータ) (2020-03-30T13:10:32Z) - Peeking into occluded joints: A novel framework for crowd pose
estimation [88.56203133287865]
OPEC-NetはイメージガイドされたプログレッシブGCNモジュールで、推論の観点から見えない関節を推定する。
OCPoseは、隣接するインスタンス間の平均IoUに対して、最も複雑なOccluded Poseデータセットである。
論文 参考訳(メタデータ) (2020-03-23T19:32:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。