論文の概要: MGDepth: Motion-Guided Cost Volume For Self-Supervised Monocular Depth
In Dynamic Scenarios
- arxiv url: http://arxiv.org/abs/2312.15268v1
- Date: Sat, 23 Dec 2023 14:36:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 18:49:55.917821
- Title: MGDepth: Motion-Guided Cost Volume For Self-Supervised Monocular Depth
In Dynamic Scenarios
- Title(参考訳): MGDepth:ダイナミックシナリオにおける自己監督型単眼深度のためのモーションガイド付きコストボリューム
- Authors: Kaichen Zhou, Jia-Xing Zhong, Jia-Wang Bian, Qian Xie, Jian-Qing
Zheng, Niki Trigoni, Andrew Markham
- Abstract要約: MGDepthは、動的オブジェクトと静的背景の両方の正確な深さ推定を実現するために、モーションガイド付きコストボリューム深さネットである。
MGDepthは、KITTI-2015データセット上での自己教師付き単分子深度推定において、ルート平均二乗誤差を約7%削減する。
- 参考スコア(独自算出の注目度): 47.33082977365344
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite advancements in self-supervised monocular depth estimation,
challenges persist in dynamic scenarios due to the dependence on assumptions
about a static world. In this paper, we present MGDepth, a Motion-Guided Cost
Volume Depth Net, to achieve precise depth estimation for both dynamic objects
and static backgrounds, all while maintaining computational efficiency. To
tackle the challenges posed by dynamic content, we incorporate optical flow and
coarse monocular depth to create a novel static reference frame. This frame is
then utilized to build a motion-guided cost volume in collaboration with the
target frame. Additionally, to enhance the accuracy and resilience of the
network structure, we introduce an attention-based depth net architecture to
effectively integrate information from feature maps with varying resolutions.
Compared to methods with similar computational costs, MGDepth achieves a
significant reduction of approximately seven percent in root-mean-square error
for self-supervised monocular depth estimation on the KITTI-2015 dataset.
- Abstract(参考訳): 自己監督された単分子深度推定の進歩にもかかわらず、静的世界に関する仮定に依存するため、動的なシナリオでは課題が持続する。
本稿では,動的オブジェクトと静的背景の両方に対して,計算効率を維持しながら正確な深度推定を実現するための動き誘導コストボリューム深さネットMGDepthを提案する。
動的コンテンツによって生じる課題に取り組むために,光流と粗い単眼深度を組み込んで,新しい静的参照フレームを作成する。
このフレームは、ターゲットフレームと協調してモーションガイド付きコストボリュームを構築するために使用される。
さらに,ネットワーク構造の精度とレジリエンスを高めるため,様々な解像度で特徴マップからの情報を効果的に統合する注目型ディープネットアーキテクチャを導入する。
同様の計算コストの手法と比較して、MGDepthはKITTI-2015データセット上での自己教師付き単眼深度推定において、ルート平均二乗誤差を約7%削減する。
関連論文リスト
- Depth-aware Volume Attention for Texture-less Stereo Matching [67.46404479356896]
実用的な屋外シナリオにおけるテクスチャ劣化に対処する軽量なボリューム改善手法を提案する。
画像テクスチャの相対的階層を抽出し,地中深度マップによって教師される深度体積を導入する。
局所的な微細構造と文脈は、体積凝集時のあいまいさと冗長性を緩和するために強調される。
論文 参考訳(メタデータ) (2024-02-14T04:07:44Z) - Joint Self-supervised Depth and Optical Flow Estimation towards Dynamic
Objects [3.794605440322862]
本研究では,フレーム間監督深度と光フロー推定の枠組みを構築した。
動作のセグメンテーションでは、予備推定光フローマップを広い接続領域で適応的に分割する。
提案手法は,KITTI深度データセット上で既存の深度推定器よりも優れた精度を示す。
論文 参考訳(メタデータ) (2023-09-07T04:00:52Z) - DS-Depth: Dynamic and Static Depth Estimation via a Fusion Cost Volume [26.990400985745786]
移動物体を記述するために残留光流を利用する新しい動的コスト容積を提案する。
その結果,本モデルは自己教師付き単分子深度推定の基準線よりも優れていた。
論文 参考訳(メタデータ) (2023-08-14T15:57:42Z) - EndoDepthL: Lightweight Endoscopic Monocular Depth Estimation with
CNN-Transformer [0.0]
我々は,CNNとTransformerを統合してマルチスケール深度マップを推定する,EndoDepthLという新しい軽量ソリューションを提案する。
提案手法は,ネットワークアーキテクチャの最適化,マルチスケール拡張畳み込み,マルチチャネルアテンション機構の導入を含む。
内視鏡画像における単眼深度推定の性能をよりよく評価するために,新しい複雑性評価指標を提案する。
論文 参考訳(メタデータ) (2023-08-04T21:38:29Z) - Dyna-DepthFormer: Multi-frame Transformer for Self-Supervised Depth
Estimation in Dynamic Scenes [19.810725397641406]
シーン深度と3次元運動場を協調的に予測する新しいDyna-Depthformerフレームワークを提案する。
まず,多視点の相関を一連の自己・横断的層を通じて活用し,深度特徴表現の強化を図る。
第2に,動的物体の運動場をセマンティック・プレセプションを使わずに推定するワーピングに基づく運動ネットワークを提案する。
論文 参考訳(メタデータ) (2023-01-14T09:43:23Z) - SC-DepthV3: Robust Self-supervised Monocular Depth Estimation for
Dynamic Scenes [58.89295356901823]
自己監督型単眼深度推定は静的な場面で顕著な結果を示した。
トレーニングネットワークのマルチビュー整合性の仮定に依存するが、動的オブジェクト領域に違反する。
単一画像の深度を事前に生成するための,外部トレーニング付き単眼深度推定モデルを提案する。
我々のモデルは、高度にダイナミックなシーンのモノクロビデオからトレーニングしても、シャープで正確な深度マップを予測できる。
論文 参考訳(メタデータ) (2022-11-07T16:17:47Z) - Towards Scale-Aware, Robust, and Generalizable Unsupervised Monocular
Depth Estimation by Integrating IMU Motion Dynamics [74.1720528573331]
教師なし単眼深度と自我運動推定は近年広く研究されている。
我々は、視覚情報とIMUモーションダイナミクスを統合した新しいスケールアウェアフレームワークDynaDepthを提案する。
我々は、KITTIおよびMake3Dデータセット上で広範囲な実験とシミュレーションを行うことにより、DynaDepthの有効性を検証する。
論文 参考訳(メタデータ) (2022-07-11T07:50:22Z) - Unsupervised Scale-consistent Depth Learning from Video [131.3074342883371]
本研究では,単眼深度推定器SC-Depthを提案する。
スケール一貫性予測の能力により,我々の単分子学習深層ネットワークは簡単にORB-SLAM2システムに統合可能であることを示す。
提案したハイブリッドPseudo-RGBD SLAMは、KITTIにおいて魅力的な結果を示し、追加のトレーニングなしでKAISTデータセットにうまく一般化する。
論文 参考訳(メタデータ) (2021-05-25T02:17:56Z) - Depth-conditioned Dynamic Message Propagation for Monocular 3D Object
Detection [86.25022248968908]
モノラル3Dオブジェクト検出の問題を解決するために、コンテキストと奥行きを認識する特徴表現を学びます。
KITTIベンチマークデータセットにおける単眼的アプローチにおける最新の結果を示す。
論文 参考訳(メタデータ) (2021-03-30T16:20:24Z) - Self-Supervised Joint Learning Framework of Depth Estimation via
Implicit Cues [24.743099160992937]
深度推定のための自己教師型共同学習フレームワークを提案する。
提案するフレームワークは,KITTIおよびMake3Dデータセット上での最先端(SOTA)よりも優れている。
論文 参考訳(メタデータ) (2020-06-17T13:56:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。