論文の概要: AcED: Accurate and Edge-consistent Monocular Depth Estimation
- arxiv url: http://arxiv.org/abs/2006.09243v1
- Date: Tue, 16 Jun 2020 15:21:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-20 21:33:34.021972
- Title: AcED: Accurate and Edge-consistent Monocular Depth Estimation
- Title(参考訳): AcED: 高精度かつエッジ一貫性のある単眼深度推定
- Authors: Kunal Swami, Prasanna Vishnu Bondada, Pankaj Kumar Bajpai
- Abstract要約: 単一画像深度推定は難しい問題である。
完全に微分可能な順序回帰を定式化し、エンドツーエンドでネットワークを訓練する。
深度補正のための画素ごとの信頼度マップ計算も提案した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Single image depth estimation is a challenging problem. The current
state-of-the-art method formulates the problem as that of ordinal regression.
However, the formulation is not fully differentiable and depth maps are not
generated in an end-to-end fashion. The method uses a na\"ive threshold
strategy to determine per-pixel depth labels, which results in significant
discretization errors. For the first time, we formulate a fully differentiable
ordinal regression and train the network in end-to-end fashion. This enables us
to include boundary and smoothness constraints in the optimization function,
leading to smooth and edge-consistent depth maps. A novel per-pixel confidence
map computation for depth refinement is also proposed. Extensive evaluation of
the proposed model on challenging benchmarks reveals its superiority over
recent state-of-the-art methods, both quantitatively and qualitatively.
Additionally, we demonstrate practical utility of the proposed method for
single camera bokeh solution using in-house dataset of challenging real-life
images.
- Abstract(参考訳): 単一画像深度推定は難しい問題である。
現在の最先端の手法は、問題を順序回帰の方法として定式化する。
しかし、定式化は完全微分可能ではなく、深さ写像はエンドツーエンドで生成されない。
この手法は,1ピクセルあたりの深度ラベルを決定するために,na\"5"しきい値戦略を用いる。
完全に微分可能な順序回帰を初めて定式化し、エンドツーエンドでネットワークをトレーニングします。
これにより、最適化関数に境界制約と滑らか性制約を組み込むことができ、滑らかでエッジに一貫性のある深度写像が得られる。
深度補正のための画素ごとの信頼度マップ計算も提案した。
提案手法の大規模評価は,最近の最先端手法よりも,定量的かつ定性的に優れていることを示す。
さらに,実生活における課題の画像の社内データセットを用いて,シングルカメラボケソリューションの実用性を実証した。
関連論文リスト
- PrimeDepth: Efficient Monocular Depth Estimation with a Stable Diffusion Preimage [19.02295657801464]
この研究はゼロショット単眼深度推定の課題に対処する。
この分野での最近の進歩は、安定拡散のようなテキスト・ツー・イメージの基礎モデルを活用するというアイデアである。
拡散型アプローチの正の側面を保ちつつ、あるいは強化しながら、テスト時に高い効率を発揮できる方法であるPrimeDepthを提案する。
論文 参考訳(メタデータ) (2024-09-13T19:03:48Z) - Deep Richardson-Lucy Deconvolution for Low-Light Image Deblurring [48.80983873199214]
我々は,飽和画素を学習潜時マップでモデル化するデータ駆動型手法を開発した。
新しいモデルに基づいて、非盲検除色タスクを最大後部(MAP)問題に定式化することができる。
増幅されたアーティファクトを使わずに高品質な劣化画像を推定するために,我々は事前推定ネットワークを構築した。
論文 参考訳(メタデータ) (2023-08-10T12:53:30Z) - Single Image Depth Prediction Made Better: A Multivariate Gaussian Take [163.14849753700682]
本稿では,画素ごとの深度を連続的にモデル化する手法を提案する。
提案手法の精度(MG)は,KITTI深度予測ベンチマークリーダーボードの上位に位置する。
論文 参考訳(メタデータ) (2023-03-31T16:01:03Z) - Towards Unpaired Depth Enhancement and Super-Resolution in the Wild [121.96527719530305]
最先端のデータ駆動による深度マップの超解像法は、同じシーンの低解像度と高解像度の深度マップの登録ペアに依存している。
未経験データからの学習に基づく深度マップの強化について考察する。
論文 参考訳(メタデータ) (2021-05-25T16:19:16Z) - Adaptive Surface Normal Constraint for Depth Estimation [102.7466374038784]
アダプティブサーフェスノーマル(ASN)制約と呼ばれるシンプルで効果的な手法を導入し、深さ推定と幾何学的一貫性を相関させます。
本手法は3次元形状を忠実に再構成でき,境界,鋭角,雑音などの局所形状変化に頑健である。
論文 参考訳(メタデータ) (2021-03-29T10:36:25Z) - Depth Completion using Piecewise Planar Model [94.0808155168311]
深度マップは一連の学習された基底で表現することができ、閉じた解法で効率的に解ける。
しかし、この方法の1つの問題は、色境界が深さ境界と矛盾する場合にアーチファクトを生成することである。
私たちは、より厳密な深度回復モデルを実行します。
論文 参考訳(メタデータ) (2020-12-06T07:11:46Z) - Occlusion-Aware Depth Estimation with Adaptive Normal Constraints [85.44842683936471]
カラービデオから多フレーム深度を推定する新しい学習手法を提案する。
本手法は深度推定精度において最先端の手法より優れる。
論文 参考訳(メタデータ) (2020-04-02T07:10:45Z) - Predicting Sharp and Accurate Occlusion Boundaries in Monocular Depth
Estimation Using Displacement Fields [25.3479048674598]
単眼画像からの深度マップ予測の現在の手法は、滑らかで、局所的でない輪郭を予測しがちである。
我々は,何らかの再構成法により予測される深度マップから,閉塞境界付近の画素をよりシャープな再構成に再サンプリングできる2次元変位場を予測することを学ぶ。
本手法は, エンド・ツー・エンドのトレーニング可能な方法で, 任意の深さ推定手法の出力に適用できる。
論文 参考訳(メタデータ) (2020-02-28T14:15:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。