論文の概要: DynOcc: Learning Single-View Depth from Dynamic Occlusion Cues
- arxiv url: http://arxiv.org/abs/2103.16706v1
- Date: Tue, 30 Mar 2021 22:17:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-02 06:39:09.826005
- Title: DynOcc: Learning Single-View Depth from Dynamic Occlusion Cues
- Title(参考訳): DynOcc: ダイナミックオクルージョンキューからシングルビューの深さを学ぶ
- Authors: Yifan Wang, Linjie Luo, Xiaohui Shen, Xing Mei
- Abstract要約: In-the-wild シーンからなる第1の深度データセット DynOcc を導入する。
提案手法は,これらのダイナミックシーンの手がかりを利用して,選択したビデオフレームのポイント間の深さ関係を推定する。
DynOccデータセットには、91Kフレームのさまざまなビデオセットから22Mの深さペアが含まれています。
- 参考スコア(独自算出の注目度): 37.837552043766166
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, significant progress has been made in single-view depth estimation
thanks to increasingly large and diverse depth datasets. However, these
datasets are largely limited to specific application domains (e.g. indoor,
autonomous driving) or static in-the-wild scenes due to hardware constraints or
technical limitations of 3D reconstruction. In this paper, we introduce the
first depth dataset DynOcc consisting of dynamic in-the-wild scenes. Our
approach leverages the occlusion cues in these dynamic scenes to infer depth
relationships between points of selected video frames. To achieve accurate
occlusion detection and depth order estimation, we employ a novel occlusion
boundary detection, filtering and thinning scheme followed by a robust
foreground/background classification method. In total our DynOcc dataset
contains 22M depth pairs out of 91K frames from a diverse set of videos. Using
our dataset we achieved state-of-the-art results measured in weighted human
disagreement rate (WHDR). We also show that the inferred depth maps trained
with DynOcc can preserve sharper depth boundaries.
- Abstract(参考訳): 近年,大規模かつ多種多様な深度データセットにより,一視点深度推定が大幅に進歩している。
しかし、これらのデータセットは特定のアプリケーションドメイン(例)に限定されている。
ハードウェアの制約や3D再構成の技術的制限による、屋内、自律運転)または静的な現場。
本稿では,ダイナミック・イン・ザ・ワイルドシーンからなる第1深度データセットDynOccを紹介する。
提案手法は, 動的シーンにおけるオクルージョン手がかりを利用して, 選択されたビデオフレームの点間の深さ関係を推定する。
正確な閉塞検出と深度順序推定を実現するため,新しい閉塞境界検出法,フィルタリング法,薄型化法,および頑健な前景/背景分類法を用いる。
DynOccのデータセットには、さまざまなビデオの91Kフレームのうち2200万の深さペアが含まれています。
我々のデータセットを用いて、重み付きヒト不一致率(WHDR)の測定結果を得た。
また、DynOccでトレーニングした推定深度マップは、よりシャープな深度境界を維持することができることを示した。
関連論文リスト
- Depth-Guided Semi-Supervised Instance Segmentation [62.80063539262021]
Semi-Supervised Instance (SSIS)は、トレーニング中にラベルなしデータの量を活用することを目的としている。
従来のフレームワークは主に、ラベルなし画像のRGB情報を利用して擬似ラベルを生成する。
この制限を克服するために、Depth-Guided (DG)フレームワークを導入します。
論文 参考訳(メタデータ) (2024-06-25T09:36:50Z) - Mind The Edge: Refining Depth Edges in Sparsely-Supervised Monocular Depth Estimation [42.19770683222846]
単眼深度推定(MDE)はコンピュータビジョンの基本的な問題であり、多くの応用がある。
本稿では,密集した合成データから深度エッジの位置を検出することを提案する。
いくつかの挑戦的データセットに対して,画素ごとの深度精度を比較検討することにより,深度エッジの精度が著しく向上したことを示す。
論文 参考訳(メタデータ) (2022-12-10T14:49:24Z) - SC-DepthV3: Robust Self-supervised Monocular Depth Estimation for
Dynamic Scenes [58.89295356901823]
自己監督型単眼深度推定は静的な場面で顕著な結果を示した。
トレーニングネットワークのマルチビュー整合性の仮定に依存するが、動的オブジェクト領域に違反する。
単一画像の深度を事前に生成するための,外部トレーニング付き単眼深度推定モデルを提案する。
我々のモデルは、高度にダイナミックなシーンのモノクロビデオからトレーニングしても、シャープで正確な深度マップを予測できる。
論文 参考訳(メタデータ) (2022-11-07T16:17:47Z) - Learning Occlusion-Aware Coarse-to-Fine Depth Map for Self-supervised
Monocular Depth Estimation [11.929584800629673]
自己教師付き単眼深度推定のためのOcclusion-aware Coarse-to-Fine Depth Mapを学習するための新しいネットワークを提案する。
提案したOCFD-Netは,粗度深度マップの学習に離散深度制約を用いるだけでなく,シーン深度残差の学習にも連続深度制約を用いる。
論文 参考訳(メタデータ) (2022-03-21T12:43:42Z) - DnD: Dense Depth Estimation in Crowded Dynamic Indoor Scenes [68.38952377590499]
複雑な屋内環境の中を移動する単眼カメラから奥行きを推定するための新しい手法を提案する。
提案手法は,静的な背景と複数の移動する人物からなるシーン全体にわたる絶対規模の深度マップを推定する。
論文 参考訳(メタデータ) (2021-08-12T09:12:39Z) - Boundary-induced and scene-aggregated network for monocular depth
prediction [20.358133522462513]
本稿では,1枚のRGB画像の深度を推定するための境界誘導・Scene-aggregated Network (BS-Net)を提案する。
NYUD v2データセットとxffthe iBims-1データセットに関するいくつかの実験結果は、提案手法の最先端性能を示している。
論文 参考訳(メタデータ) (2021-02-26T01:43:17Z) - Guiding Monocular Depth Estimation Using Depth-Attention Volume [38.92495189498365]
本研究では,特に屋内環境に広く分布する平面構造を優先するための奥行き推定法を提案する。
2つのポピュラーな屋内データセットであるNYU-Depth-v2とScanNetの実験により,本手法が最先端の深度推定結果を実現することを示す。
論文 参考訳(メタデータ) (2020-04-06T15:45:52Z) - Occlusion-Aware Depth Estimation with Adaptive Normal Constraints [85.44842683936471]
カラービデオから多フレーム深度を推定する新しい学習手法を提案する。
本手法は深度推定精度において最先端の手法より優れる。
論文 参考訳(メタデータ) (2020-04-02T07:10:45Z) - Single Image Depth Estimation Trained via Depth from Defocus Cues [105.67073923825842]
単一のRGB画像から深度を推定することはコンピュータビジョンの基本的な課題である。
この作業では、異なる視点ではなく、フォーカスキューからの奥行きに依存しています。
我々は,KITTIとMake3Dデータセットの教師あり手法と同等な結果を提示し,教師なし学習手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-01-14T20:22:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。