論文の概要: P3Depth: Monocular Depth Estimation with a Piecewise Planarity Prior
- arxiv url: http://arxiv.org/abs/2204.02091v1
- Date: Tue, 5 Apr 2022 10:03:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-06 13:09:41.843876
- Title: P3Depth: Monocular Depth Estimation with a Piecewise Planarity Prior
- Title(参考訳): P3Depth:P3Depthによる単眼深度推定
- Authors: Vaishakh Patil, Christos Sakaridis, Alexander Liniger, Luc Van Gool
- Abstract要約: 本研究では,コプラナー画素からの情報を選択的に活用して予測深度を改善する手法を提案する。
本手法の広範な評価により, 教師付き単分子深度推定法において, 新たな手法の確立が期待できる。
- 参考スコア(独自算出の注目度): 133.76192155312182
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Monocular depth estimation is vital for scene understanding and downstream
tasks. We focus on the supervised setup, in which ground-truth depth is
available only at training time. Based on knowledge about the high regularity
of real 3D scenes, we propose a method that learns to selectively leverage
information from coplanar pixels to improve the predicted depth. In particular,
we introduce a piecewise planarity prior which states that for each pixel,
there is a seed pixel which shares the same planar 3D surface with the former.
Motivated by this prior, we design a network with two heads. The first head
outputs pixel-level plane coefficients, while the second one outputs a dense
offset vector field that identifies the positions of seed pixels. The plane
coefficients of seed pixels are then used to predict depth at each position.
The resulting prediction is adaptively fused with the initial prediction from
the first head via a learned confidence to account for potential deviations
from precise local planarity. The entire architecture is trained end-to-end
thanks to the differentiability of the proposed modules and it learns to
predict regular depth maps, with sharp edges at occlusion boundaries. An
extensive evaluation of our method shows that we set the new state of the art
in supervised monocular depth estimation, surpassing prior methods on NYU
Depth-v2 and on the Garg split of KITTI. Our method delivers depth maps that
yield plausible 3D reconstructions of the input scenes. Code is available at:
https://github.com/SysCV/P3Depth
- Abstract(参考訳): 単眼深度推定はシーン理解や下流作業に不可欠である。
我々は、トレーニング時にのみ、地底深度が利用できる教師付きセットアップに焦点をあてる。
実3次元シーンの高規則性に関する知識に基づいて,コプレーナ画素からの情報を選択的に活用し,予測深度を改善する手法を提案する。
特に,各画素に対して,同じ平面3d面を前者と共有するシード画素が存在することを示す分割平面性を導入する。
この先、私たちは2つの頭を持つネットワークを設計しました。
第1ヘッドは画素レベル平面係数を出力し、第2ヘッドはシード画素の位置を特定する高密度オフセットベクトルフィールドを出力する。
次に、シードピクセルの平面係数を用いて各位置の深さを予測する。
得られた予測は、正確な局所平面性からの潜在的な偏差を考慮し、学習された自信を介して、第1の頭部からの最初の予測と適応的に融合する。
アーキテクチャ全体は、提案されたモジュールの微分可能性によってエンドツーエンドに訓練され、閉包境界で鋭いエッジを持つ通常の深度マップを予測することを学ぶ。
提案手法を広範囲に評価した結果,nyu深度v2およびkittiのgargスプリットに先行する手法を上回って,教師付き単眼深度推定の新たな技術が確立された。
提案手法は,入力シーンの3次元再構成が可能な深度マップを提供する。
コードは、https://github.com/SysCV/P3Depthで入手できる。
関連論文リスト
- DoubleTake: Geometry Guided Depth Estimation [17.464549832122714]
RGB画像の列から深度を推定することは、基本的なコンピュータビジョンタスクである。
本稿では,現在のカメラ位置から深度マップとして描画された,ボリューム特徴と先行幾何学のヒントを組み合わせた再構成手法を提案する。
本手法は, オフライン・インクリメンタルな評価シナリオにおいて, 対話的な速度, 最先端の深度推定, および3次元シーンで動作可能であることを示す。
論文 参考訳(メタデータ) (2024-06-26T14:29:05Z) - NDDepth: Normal-Distance Assisted Monocular Depth Estimation and
Completion [18.974297347310287]
単眼深度推定と完了のための新しい物理(幾何学)駆動型ディープラーニングフレームワークを提案する。
提案手法は,最先端の単分子深度推定および完成競合よりも高い性能を示す。
論文 参考訳(メタデータ) (2023-11-13T09:01:50Z) - ARAI-MVSNet: A multi-view stereo depth estimation network with adaptive
depth range and depth interval [19.28042366225802]
マルチビューステレオ(MVS)は幾何学的コンピュータビジョンの基本的な問題である。
適応的な全画素深度範囲と深度間隔を実現するために,新しい多段粗大化フレームワークを提案する。
我々のモデルは最先端の性能を達成し、競争一般化能力を得る。
論文 参考訳(メタデータ) (2023-08-17T14:52:11Z) - Towards Accurate Reconstruction of 3D Scene Shape from A Single
Monocular Image [91.71077190961688]
まず、未知のスケールまで深さを予測し、単一の単眼画像からシフトする2段階のフレームワークを提案する。
次に、3Dポイントの雲のデータを利用して、奥行きの変化とカメラの焦点距離を予測し、3Dシーンの形状を復元します。
我々は9つの未知のデータセットで深度モデルを検証し、ゼロショット評価で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-08-28T16:20:14Z) - Virtual Normal: Enforcing Geometric Constraints for Accurate and Robust
Depth Prediction [87.08227378010874]
深度予測における高次3次元幾何学的制約の重要性を示す。
単純な幾何学的制約を強制する損失項を設計することにより、単眼深度推定の精度とロバスト性を大幅に改善する。
The-of-the-art results of learning metric depth on NYU Depth-V2 and KITTI。
論文 参考訳(メタデータ) (2021-03-07T00:08:21Z) - Learning to Recover 3D Scene Shape from a Single Image [98.20106822614392]
まず,未知のスケールまで深さを予測し,単一の単眼画像からシフトする2段階フレームワークを提案する。
そして、3dポイントクラウドエンコーダを使って深度シフトと焦点距離を予測し、リアルな3dシーンの形状を復元します。
論文 参考訳(メタデータ) (2020-12-17T02:35:13Z) - Occlusion-Aware Depth Estimation with Adaptive Normal Constraints [85.44842683936471]
カラービデオから多フレーム深度を推定する新しい学習手法を提案する。
本手法は深度推定精度において最先端の手法より優れる。
論文 参考訳(メタデータ) (2020-04-02T07:10:45Z) - DiverseDepth: Affine-invariant Depth Prediction Using Diverse Data [110.29043712400912]
本稿では,アフィン変換に至るまでの多様なシーンにおける高品質な深度を予測できるモノクロ画像を用いた深度推定手法を提案する。
実験の結果,提案手法は,ゼロショットテスト設定と大差で8つのデータセットの先行手法より優れていた。
論文 参考訳(メタデータ) (2020-02-03T05:38:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。