論文の概要: Learning Occlusion-Aware Coarse-to-Fine Depth Map for Self-supervised
Monocular Depth Estimation
- arxiv url: http://arxiv.org/abs/2203.10925v1
- Date: Mon, 21 Mar 2022 12:43:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-22 23:23:13.231180
- Title: Learning Occlusion-Aware Coarse-to-Fine Depth Map for Self-supervised
Monocular Depth Estimation
- Title(参考訳): 自己教師型単眼深度推定のためのオクルージョン対応粗大深度マップの学習
- Authors: Zhengming Zhou and Qiulei Dong
- Abstract要約: 自己教師付き単眼深度推定のためのOcclusion-aware Coarse-to-Fine Depth Mapを学習するための新しいネットワークを提案する。
提案したOCFD-Netは,粗度深度マップの学習に離散深度制約を用いるだけでなく,シーン深度残差の学習にも連続深度制約を用いる。
- 参考スコア(独自算出の注目度): 11.929584800629673
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Self-supervised monocular depth estimation, aiming to learn scene depths from
single images in a self-supervised manner, has received much attention
recently. In spite of recent efforts in this field, how to learn accurate scene
depths and alleviate the negative influence of occlusions for self-supervised
depth estimation, still remains an open problem. Addressing this problem, we
firstly empirically analyze the effects of both the continuous and discrete
depth constraints which are widely used in the training process of many
existing works. Then inspired by the above empirical analysis, we propose a
novel network to learn an Occlusion-aware Coarse-to-Fine Depth map for
self-supervised monocular depth estimation, called OCFD-Net. Given an arbitrary
training set of stereo image pairs, the proposed OCFD-Net does not only employ
a discrete depth constraint for learning a coarse-level depth map, but also
employ a continuous depth constraint for learning a scene depth residual,
resulting in a fine-level depth map. In addition, an occlusion-aware module is
designed under the proposed OCFD-Net, which is able to improve the capability
of the learnt fine-level depth map for handling occlusions. Extensive
experimental results on the public KITTI and Make3D datasets demonstrate that
the proposed method outperforms 20 existing state-of-the-art methods in most
cases.
- Abstract(参考訳): 近年,単体画像からシーン深度を学習することを目的とした自己教師付き単眼深度推定が注目されている。
この分野での最近の取り組みにもかかわらず、正確なシーン深度を学習し、自己監督深度推定におけるオクルージョンの負の影響を緩和する方法は依然として未解決の問題である。
この問題に対処するために,我々はまず,既存の作品の訓練プロセスで広く用いられている連続的および離散的な深さ制約の影響を経験的に分析する。
そこで我々は,OCFD-Netと呼ばれる自己教師付き単眼深度推定のためのOcclusion-aware Coarse-to-Fine Depth Mapを学習するための新しいネットワークを提案する。
ステレオ画像ペアの任意のトレーニングセットが与えられた場合、提案するOCFD-Netは、粗度深度マップを学習するために離散深度制約を用いるだけでなく、シーン深度残差を学習するために連続深度制約を用いる。
また,OCFD-Netではオクルージョン対応モジュールを設計し,オクルージョン処理のための詳細な深度マップの学習能力を向上させる。
公開kittiとmake3dデータセットの広範な実験結果から,提案手法が既存の20の最先端手法を上回っていることが分かる。
関連論文リスト
- SC-DepthV3: Robust Self-supervised Monocular Depth Estimation for
Dynamic Scenes [58.89295356901823]
自己監督型単眼深度推定は静的な場面で顕著な結果を示した。
トレーニングネットワークのマルチビュー整合性の仮定に依存するが、動的オブジェクト領域に違反する。
単一画像の深度を事前に生成するための,外部トレーニング付き単眼深度推定モデルを提案する。
我々のモデルは、高度にダイナミックなシーンのモノクロビデオからトレーニングしても、シャープで正確な深度マップを予測できる。
論文 参考訳(メタデータ) (2022-11-07T16:17:47Z) - Densely Constrained Depth Estimator for Monocular 3D Object Detection [48.12271792836015]
モノクロ画像から物体の正確な3D位置を推定することは、深さが不足しているため難しい問題である。
任意の方向の端から高密度な射影制約を利用する手法を提案する。
提案手法は, KITTI および WOD ベンチマーク上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-07-20T17:24:22Z) - Learning Depth via Leveraging Semantics: Self-supervised Monocular Depth
Estimation with Both Implicit and Explicit Semantic Guidance [34.62415122883441]
シーン認識深度推定のための暗黙的意味特徴と深度特徴とを一致させるセマンティック認識空間特徴アライメント方式を提案する。
また,推定深度マップを実シーンの文脈特性と整合性に明示的に制約する意味誘導型ランキング損失を提案する。
複雑なシーンや多様なセマンティックカテゴリで一貫して優れた、高品質な深度マップを作成します。
論文 参考訳(メタデータ) (2021-02-11T14:29:51Z) - Adaptive confidence thresholding for monocular depth estimation [83.06265443599521]
本稿では,自己教師付ステレオマッチング法から生成されたステレオ画像の擬似地上真実深度マップを利用する新しい手法を提案する。
擬似地底深度マップの信頼度マップを推定し、不正確な擬似地底深度マップによる性能劣化を緩和する。
実験結果から, 最先端の単分子深度推定法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-09-27T13:26:16Z) - Self-Attention Dense Depth Estimation Network for Unrectified Video
Sequences [6.821598757786515]
LiDARとレーダーセンサーはリアルタイム深度推定のためのハードウェアソリューションである。
深層学習に基づく自己教師付き深度推定法は有望な結果を示した。
未修正画像に対する自己注意に基づく深度・自我移動ネットワークを提案する。
論文 参考訳(メタデータ) (2020-05-28T21:53:53Z) - Guiding Monocular Depth Estimation Using Depth-Attention Volume [38.92495189498365]
本研究では,特に屋内環境に広く分布する平面構造を優先するための奥行き推定法を提案する。
2つのポピュラーな屋内データセットであるNYU-Depth-v2とScanNetの実験により,本手法が最先端の深度推定結果を実現することを示す。
論文 参考訳(メタデータ) (2020-04-06T15:45:52Z) - Occlusion-Aware Depth Estimation with Adaptive Normal Constraints [85.44842683936471]
カラービデオから多フレーム深度を推定する新しい学習手法を提案する。
本手法は深度推定精度において最先端の手法より優れる。
論文 参考訳(メタデータ) (2020-04-02T07:10:45Z) - Monocular Depth Estimation Based On Deep Learning: An Overview [16.2543991384566]
単一の画像から深度情報(眼深度推定)を推定することは不適切な問題である。
ディープラーニングは最近広く研究され、精度で有望なパフォーマンスを達成した。
深度推定の精度を向上させるために,様々な種類のネットワークフレームワーク,損失関数,トレーニング戦略を提案する。
論文 参考訳(メタデータ) (2020-03-14T12:35:34Z) - Single Image Depth Estimation Trained via Depth from Defocus Cues [105.67073923825842]
単一のRGB画像から深度を推定することはコンピュータビジョンの基本的な課題である。
この作業では、異なる視点ではなく、フォーカスキューからの奥行きに依存しています。
我々は,KITTIとMake3Dデータセットの教師あり手法と同等な結果を提示し,教師なし学習手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-01-14T20:22:54Z) - Don't Forget The Past: Recurrent Depth Estimation from Monocular Video [92.84498980104424]
私たちは3つの異なる種類の深さ推定を共通のフレームワークに組み込んだ。
提案手法は, 時系列の深度マップを生成する。
モノクロビデオにのみ適用したり、異なる種類のスパース深度パターンと組み合わせたりすることができる。
論文 参考訳(メタデータ) (2020-01-08T16:50:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。