論文の概要: Mind The Edge: Refining Depth Edges in Sparsely-Supervised Monocular
Depth Estimation
- arxiv url: http://arxiv.org/abs/2212.05315v1
- Date: Sat, 10 Dec 2022 14:49:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 16:31:21.663447
- Title: Mind The Edge: Refining Depth Edges in Sparsely-Supervised Monocular
Depth Estimation
- Title(参考訳): Mind the Edge: わずかに監督された単眼深度推定における深度エッジの精製
- Authors: Lior Talker, Aviad Cohen, Erez Yosef, Alexandra Dana, Michael
Dinerstein
- Abstract要約: 直接推定した深度エッジは,MDEトレーニングから間接的に現れるエッジよりも有意に正確であることを示す。
いくつかの挑戦的データセットに対して,画素ごとの深度精度を比較検討することにより,深度エッジの精度が著しく向上したことを示す。
- 参考スコア(独自算出の注目度): 62.080239322204086
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Monocular Depth Estimation (MDE) is a fundamental problem in computer vision
with numerous applications. Recently, LIDAR-supervised methods have achieved
remarkable per-pixel depth accuracy in outdoor scenes. However, significant
errors are typically found in the proximity of depth discontinuities, i.e.,
depth edges, which often hinder the performance of depth-dependent applications
that are sensitive to such inaccuracies, e.g., novel view synthesis and
augmented reality. Since direct supervision for the location of depth edges is
typically unavailable in sparse LIDAR-based scenes, encouraging the MDE model
to produce correct depth edges is not straightforward. In this work we propose
to learn to detect the location of depth edges from densely-supervised
synthetic data, and use it to generate supervision for the depth edges in the
MDE training. %Despite the 'domain gap' between synthetic and real data, we
show that depth edges that are estimated directly are significantly more
accurate than the ones that emerge indirectly from the MDE training. To
quantitatively evaluate our approach, and due to the lack of depth edges ground
truth in LIDAR-based scenes, we manually annotated subsets of the KITTI and the
DDAD datasets with depth edges ground truth. We demonstrate significant gains
in the accuracy of the depth edges with comparable per-pixel depth accuracy on
several challenging datasets.
- Abstract(参考訳): 単眼深度推定(MDE)はコンピュータビジョンの基本的な問題であり、多くの応用がある。
近年,LIDARを教師する手法は,屋外シーンにおける画素毎の深度精度が著しく向上している。
しかし、主に深度不連続性(deep discontinuities)、すなわち深度エッジ(deep edges)の近傍で顕著なエラーが見られ、これはしばしば、新しいビュー合成や拡張現実のような不正確性に敏感な深度依存アプリケーションの性能を妨げる。
深度エッジの位置の直接監視は、通常、粗いLIDARベースのシーンでは利用できないため、MDEモデルに正確な深度エッジを作成するよう促すことは簡単ではない。
本研究は,高度に教師付きされた合成データから深度エッジの位置を学習し,それを用いて深度エッジの監視を行うことを提案する。
また,合成データと実データとの「ドメインギャップ」は,mdeトレーニングから間接的に発生するものよりも,直接的に推定される深さエッジの方が有意に精度が高いことが示された。
我々のアプローチを定量的に評価するため,LIDARに基づくシーンでは深度エッジ基底真理が欠如しているため,KITTIとDDADデータセットのサブセットを手動で注釈付けした。
いくつかの挑戦的なデータセットに対して,画素毎の深度精度と同等の深度エッジの精度が著しく向上したことを示す。
関連論文リスト
- SparseNeRF: Distilling Depth Ranking for Few-shot Novel View Synthesis [93.46963803030935]
実世界の不正確な観測から奥行きの先行情報を利用する新しいスパースビューNeRF(Sparse-view NeRF)フレームワークを提案する。
局所パッチの粗い深度マップとNeRFの予測深度ランキングが一致するように, 局所深度ランキング法である簡易で効果的な制約を提案する。
また、Azure Kinect、ZED 2、iPhone 13 Proの実際の深度マップを含む新しいデータセットNVS-RGBDも収集しています。
論文 参考訳(メタデータ) (2023-03-28T17:58:05Z) - DesNet: Decomposed Scale-Consistent Network for Unsupervised Depth
Completion [28.91716162403531]
教師なし深度補完は、接地トラスアノテーションを使わずにスパースから密集した深度を回復することを目的としている。
本研究では,絶対深度を相対深度予測とグローバルスケール推定に分解するDSCL戦略を提案する。
提案手法は,室内のNYUv2データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-11-20T14:56:18Z) - Densely Constrained Depth Estimator for Monocular 3D Object Detection [48.12271792836015]
モノクロ画像から物体の正確な3D位置を推定することは、深さが不足しているため難しい問題である。
任意の方向の端から高密度な射影制約を利用する手法を提案する。
提案手法は, KITTI および WOD ベンチマーク上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-07-20T17:24:22Z) - Learning Occlusion-Aware Coarse-to-Fine Depth Map for Self-supervised
Monocular Depth Estimation [11.929584800629673]
自己教師付き単眼深度推定のためのOcclusion-aware Coarse-to-Fine Depth Mapを学習するための新しいネットワークを提案する。
提案したOCFD-Netは,粗度深度マップの学習に離散深度制約を用いるだけでなく,シーン深度残差の学習にも連続深度制約を用いる。
論文 参考訳(メタデータ) (2022-03-21T12:43:42Z) - DynOcc: Learning Single-View Depth from Dynamic Occlusion Cues [37.837552043766166]
In-the-wild シーンからなる第1の深度データセット DynOcc を導入する。
提案手法は,これらのダイナミックシーンの手がかりを利用して,選択したビデオフレームのポイント間の深さ関係を推定する。
DynOccデータセットには、91Kフレームのさまざまなビデオセットから22Mの深さペアが含まれています。
論文 参考訳(メタデータ) (2021-03-30T22:17:36Z) - Virtual Normal: Enforcing Geometric Constraints for Accurate and Robust
Depth Prediction [87.08227378010874]
深度予測における高次3次元幾何学的制約の重要性を示す。
単純な幾何学的制約を強制する損失項を設計することにより、単眼深度推定の精度とロバスト性を大幅に改善する。
The-of-the-art results of learning metric depth on NYU Depth-V2 and KITTI。
論文 参考訳(メタデータ) (2021-03-07T00:08:21Z) - Boundary-induced and scene-aggregated network for monocular depth
prediction [20.358133522462513]
本稿では,1枚のRGB画像の深度を推定するための境界誘導・Scene-aggregated Network (BS-Net)を提案する。
NYUD v2データセットとxffthe iBims-1データセットに関するいくつかの実験結果は、提案手法の最先端性能を示している。
論文 参考訳(メタデータ) (2021-02-26T01:43:17Z) - Direct Depth Learning Network for Stereo Matching [79.3665881702387]
ステレオマッチングのための新しいダイレクトディープス学習ネットワーク(DDL-Net)が設計されている。
DDL-Netは、粗度推定段階と適応勾配深度補正段階の2段階からなる。
我々は,DDL-NetがSceneFlowデータセットで25%,DrivingStereoデータセットで12%の平均的な改善を実現していることを示す。
論文 参考訳(メタデータ) (2020-12-10T10:33:57Z) - Occlusion-Aware Depth Estimation with Adaptive Normal Constraints [85.44842683936471]
カラービデオから多フレーム深度を推定する新しい学習手法を提案する。
本手法は深度推定精度において最先端の手法より優れる。
論文 参考訳(メタデータ) (2020-04-02T07:10:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。