論文の概要: Predicting Sharp and Accurate Occlusion Boundaries in Monocular Depth
Estimation Using Displacement Fields
- arxiv url: http://arxiv.org/abs/2002.12730v3
- Date: Sun, 10 May 2020 23:12:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 02:31:54.975804
- Title: Predicting Sharp and Accurate Occlusion Boundaries in Monocular Depth
Estimation Using Displacement Fields
- Title(参考訳): 変位場を用いた単眼深度推定におけるシャープおよび正確な閉塞境界の推定
- Authors: Michael Ramamonjisoa, Yuming Du, Vincent Lepetit
- Abstract要約: 単眼画像からの深度マップ予測の現在の手法は、滑らかで、局所的でない輪郭を予測しがちである。
我々は,何らかの再構成法により予測される深度マップから,閉塞境界付近の画素をよりシャープな再構成に再サンプリングできる2次元変位場を予測することを学ぶ。
本手法は, エンド・ツー・エンドのトレーニング可能な方法で, 任意の深さ推定手法の出力に適用できる。
- 参考スコア(独自算出の注目度): 25.3479048674598
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current methods for depth map prediction from monocular images tend to
predict smooth, poorly localized contours for the occlusion boundaries in the
input image. This is unfortunate as occlusion boundaries are important cues to
recognize objects, and as we show, may lead to a way to discover new objects
from scene reconstruction. To improve predicted depth maps, recent methods rely
on various forms of filtering or predict an additive residual depth map to
refine a first estimate. We instead learn to predict, given a depth map
predicted by some reconstruction method, a 2D displacement field able to
re-sample pixels around the occlusion boundaries into sharper reconstructions.
Our method can be applied to the output of any depth estimation method, in an
end-to-end trainable fashion. For evaluation, we manually annotated the
occlusion boundaries in all the images in the test split of popular NYUv2-Depth
dataset. We show that our approach improves the localization of occlusion
boundaries for all state-of-the-art monocular depth estimation methods that we
could evaluate, without degrading the depth accuracy for the rest of the
images.
- Abstract(参考訳): 現在の単眼画像からの深度マップ予測法は、入力画像における咬合境界の滑らかで低局在な輪郭を予測しがちである。
これは、閉塞境界が物体を認識するための重要な手がかりであり、私たちが示すように、シーン再構成から新しい物体を発見する方法につながる可能性があるため不運である。
予測深度マップを改善するために、近年の手法は、様々な形態のフィルタリングに依存するか、または付加残差深さマップを予測し、第1の推定を洗練する。
その代わりに,再構成法によって予測される深度マップを考えると,咬合境界付近の画素をより鋭い再構成に再サンプリングできる2次元変位場を学習する。
本手法は, エンド・ツー・エンドのトレーニング可能な方法で, 任意の深さ推定手法の出力に適用できる。
評価のために、人気のあるNYUv2-Depthデータセットのテスト分割における全画像の閉塞境界を手動で注釈付けした。
提案手法は, 画像の奥行き精度を低下させることなく, 評価できるすべての最先端の単眼深度推定法に対して, 閉塞境界の局所化を向上することを示す。
関連論文リスト
- Temporal Lidar Depth Completion [0.08192907805418582]
PENetは, 再発の恩恵を受けるために, 最新の手法であるPENetをどう修正するかを示す。
提案アルゴリズムは,KITTI深度補完データセットの最先端結果を実現する。
論文 参考訳(メタデータ) (2024-06-17T08:25:31Z) - AugUndo: Scaling Up Augmentations for Monocular Depth Completion and Estimation [51.143540967290114]
本研究では,教師なし深度計算と推定のために,従来不可能であった幾何拡張の幅広い範囲をアンロックする手法を提案する。
これは、出力深さの座標への幾何変換を反転、あるいはアンドウイング(undo''-ing)し、深度マップを元の参照フレームに戻すことで達成される。
論文 参考訳(メタデータ) (2023-10-15T05:15:45Z) - Learning to Recover 3D Scene Shape from a Single Image [98.20106822614392]
まず,未知のスケールまで深さを予測し,単一の単眼画像からシフトする2段階フレームワークを提案する。
そして、3dポイントクラウドエンコーダを使って深度シフトと焦点距離を予測し、リアルな3dシーンの形状を復元します。
論文 参考訳(メタデータ) (2020-12-17T02:35:13Z) - Efficient Depth Completion Using Learned Bases [94.0808155168311]
深度補正のための新しい大域的幾何制約を提案する。
低次元部分空間上によく配置される深さ写像を仮定することにより、高密度深度写像は全解像度の主深度基底の重み付け和で近似することができる。
論文 参考訳(メタデータ) (2020-12-02T11:57:37Z) - Adaptive confidence thresholding for monocular depth estimation [83.06265443599521]
本稿では,自己教師付ステレオマッチング法から生成されたステレオ画像の擬似地上真実深度マップを利用する新しい手法を提案する。
擬似地底深度マップの信頼度マップを推定し、不正確な擬似地底深度マップによる性能劣化を緩和する。
実験結果から, 最先端の単分子深度推定法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-09-27T13:26:16Z) - Deep Multi-Scale Feature Learning for Defocus Blur Estimation [10.455763145066168]
本稿では,1つの非焦点画像からエッジベースのデフォーカスボケ推定手法を提案する。
まず、深さの不連続性(ぼかし推定が曖昧な)にあるエッジと、ほぼ一定の深さ領域にあるエッジ(ぼかし推定が適切に定義されたパターンエッジ)とを区別する。
パターンエッジのみにおけるデフォーカスのぼかし量を推定し,検出した深度エッジ間のデータ伝搬を防止し,適切に定義されたオブジェクト境界を持つ濃密なぼかしマップを得るためのガイド付きフィルタに基づくスキームを探索する。
論文 参考訳(メタデータ) (2020-09-24T20:36:40Z) - View-consistent 4D Light Field Depth Estimation [37.04038603184669]
本研究では,光場内の各サブアパーチャ画像の深度マップを一貫したビューで計算する手法を提案する。
提案手法は,EPIを用いて深度エッジを正確に定義し,その辺を中央の視野内で空間的に拡散させる。
論文 参考訳(メタデータ) (2020-09-09T01:47:34Z) - Occlusion-Aware Depth Estimation with Adaptive Normal Constraints [85.44842683936471]
カラービデオから多フレーム深度を推定する新しい学習手法を提案する。
本手法は深度推定精度において最先端の手法より優れる。
論文 参考訳(メタデータ) (2020-04-02T07:10:45Z) - Depth Completion Using a View-constrained Deep Prior [73.21559000917554]
近年の研究では、畳み込みニューラルネットワーク(CNN)の構造が、自然画像に有利な強い先行性をもたらすことが示されている。
この前者はディープ・イメージ・先行 (DIP) と呼ばれ、画像の装飾や塗装といった逆問題において有効な正則化器である。
我々は、DIPの概念を深度画像に拡張し、色画像とノイズと不完全な目標深度マップから、CNNネットワーク構造を先行して復元された深度マップを再構成する。
論文 参考訳(メタデータ) (2020-01-21T21:56:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。