論文の概要: Edge-aware Bidirectional Diffusion for Dense Depth Estimation from Light
Fields
- arxiv url: http://arxiv.org/abs/2107.02967v1
- Date: Wed, 7 Jul 2021 01:26:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-08 14:07:52.801921
- Title: Edge-aware Bidirectional Diffusion for Dense Depth Estimation from Light
Fields
- Title(参考訳): 光場からの深度推定のためのエッジ対応双方向拡散
- Authors: Numair Khan, Min H. Kim and James Tompkin
- Abstract要約: 本研究では,光場から深度エッジと勾配のスパースセットを用いて高速かつ正確な深度マップを推定するアルゴリズムを提案する。
提案手法は,テクスチャエッジよりも深度エッジの方が局所的制約に敏感であるという考え方に基づいている。
- 参考スコア(独自算出の注目度): 31.941861222005603
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present an algorithm to estimate fast and accurate depth maps from light
fields via a sparse set of depth edges and gradients. Our proposed approach is
based around the idea that true depth edges are more sensitive than texture
edges to local constraints, and so they can be reliably disambiguated through a
bidirectional diffusion process. First, we use epipolar-plane images to
estimate sub-pixel disparity at a sparse set of pixels. To find sparse points
efficiently, we propose an entropy-based refinement approach to a line estimate
from a limited set of oriented filter banks. Next, to estimate the diffusion
direction away from sparse points, we optimize constraints at these points via
our bidirectional diffusion method. This resolves the ambiguity of which
surface the edge belongs to and reliably separates depth from texture edges,
allowing us to diffuse the sparse set in a depth-edge and occlusion-aware
manner to obtain accurate dense depth maps.
- Abstract(参考訳): 本研究では,光場から深度エッジと勾配のスパースセットを用いて高速かつ正確な深度マップを推定するアルゴリズムを提案する。
提案手法は, 真の深度エッジがテクスチャエッジよりも局所的制約に敏感であるという考えに基づいており, 双方向拡散過程を通じて確実に曖昧にすることができる。
まず、エピポーラ平面画像を用いて、スパース画素集合におけるサブピクセル差を推定する。
スパースポイントを効率よく見つけるために,限定された向き付きフィルタバンクからの線推定に対するエントロピーに基づく改良手法を提案する。
次に、スパース点から離れた拡散方向を推定するために、この点における制約を双方向拡散法で最適化する。
これにより、エッジがどの面に属しているのかの曖昧さを解消し、テクスチャエッジから深さを確実に分離し、スパースセットをディフュージョンエッジとオクルージョンアウェアの方法で拡散させ、正確な濃密な深さマップを得ることができる。
関連論文リスト
- Robust Depth Enhancement via Polarization Prompt Fusion Tuning [112.88371907047396]
様々な深度センサによる不正確な深度測定を改善するために偏光イメージングを利用するフレームワークを提案する。
まず、偏光データとセンサ深度マップから高密度で完全な深度マップを推定するために、ニューラルネットワークを訓練した学習ベースの戦略を採用する。
大規模データセット上で事前学習したRGBモデルを有効に活用するためのPPFT(Polarization Prompt Fusion Tuning)戦略を提案する。
論文 参考訳(メタデータ) (2024-04-05T17:55:33Z) - Bilateral Propagation Network for Depth Completion [41.163328523175466]
深度補正は,色画像の同期による疎深度測定から高密度深度マップを導出することを目的としている。
現在の最先端技術(SOTA)法は主に伝播に基づく手法であり、初期推定密度深さの反復精製として機能する。
本稿では, スパースデータの直接結合を避けるために, 早期に深度を伝播するバイラテラル伝搬ネットワーク(BP-Net)を提案する。
論文 参考訳(メタデータ) (2024-03-17T16:48:46Z) - Non-learning Stereo-aided Depth Completion under Mis-projection via
Selective Stereo Matching [0.5067618621449753]
一対のステレオ画像で導かれる光検出・測度センサ(LiDAR)を用いて捉えたスパース深度マップの非学習深度補完法を提案する。
提案手法は, 平均絶対誤差(MAE)を0.65倍に減らし, 従来よりも約2倍の精度で推定できることを示した。
論文 参考訳(メタデータ) (2022-10-04T07:46:56Z) - Depth Completion using Plane-Residual Representation [84.63079529738924]
深度情報を最も近い深度平面ラベル$p$と残値$r$で解釈する新しい方法を紹介し,これをPlane-Residual (PR)表現と呼ぶ。
PR表現で深度情報を解釈し,それに対応する深度補完網を用いて,高速な計算により深度補完性能を向上させることができた。
論文 参考訳(メタデータ) (2021-04-15T10:17:53Z) - A learning-based view extrapolation method for axial super-resolution [52.748944517480155]
軸光界分解能は、再焦点によって異なる深さで特徴を区別する能力を指します。
せん断エピポーラ平面画像の軸体積から新しい視点を推定する学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-11T07:22:13Z) - Efficient Depth Completion Using Learned Bases [94.0808155168311]
深度補正のための新しい大域的幾何制約を提案する。
低次元部分空間上によく配置される深さ写像を仮定することにより、高密度深度写像は全解像度の主深度基底の重み付け和で近似することができる。
論文 参考訳(メタデータ) (2020-12-02T11:57:37Z) - SelfDeco: Self-Supervised Monocular Depth Completion in Challenging
Indoor Environments [50.761917113239996]
自己教師付き単分子深度補完のための新しいアルゴリズムを提案する。
提案手法は,深度ラベルを含まない疎深度測定とそれに対応する単眼ビデオシーケンスのみを必要とするニューラルネットワークのトレーニングに基づく。
我々の自己監督アルゴリズムは、テクスチャのない領域、光沢のない透明な表面、非ランバートの表面、動く人々、より長く多様な深度範囲、複雑なエゴモーションによって捉えられたシーンを含む屋内環境に挑戦するために設計されている。
論文 参考訳(メタデータ) (2020-11-10T08:55:07Z) - Deep Multi-Scale Feature Learning for Defocus Blur Estimation [10.455763145066168]
本稿では,1つの非焦点画像からエッジベースのデフォーカスボケ推定手法を提案する。
まず、深さの不連続性(ぼかし推定が曖昧な)にあるエッジと、ほぼ一定の深さ領域にあるエッジ(ぼかし推定が適切に定義されたパターンエッジ)とを区別する。
パターンエッジのみにおけるデフォーカスのぼかし量を推定し,検出した深度エッジ間のデータ伝搬を防止し,適切に定義されたオブジェクト境界を持つ濃密なぼかしマップを得るためのガイド付きフィルタに基づくスキームを探索する。
論文 参考訳(メタデータ) (2020-09-24T20:36:40Z) - View-consistent 4D Light Field Depth Estimation [37.04038603184669]
本研究では,光場内の各サブアパーチャ画像の深度マップを一貫したビューで計算する手法を提案する。
提案手法は,EPIを用いて深度エッジを正確に定義し,その辺を中央の視野内で空間的に拡散させる。
論文 参考訳(メタデータ) (2020-09-09T01:47:34Z) - Non-Local Spatial Propagation Network for Depth Completion [82.60915972250706]
本研究では,深度完了のための堅牢で効率的な非局所的空間伝搬ネットワークを提案する。
提案するネットワークは,RGBとスパース深度画像を入力とし,各画素の非局所的近傍とその親和性を推定する。
提案アルゴリズムは,混合深度問題に対する深度補完精度とロバスト性の観点から,従来のアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-07-20T12:26:51Z) - Predicting Sharp and Accurate Occlusion Boundaries in Monocular Depth
Estimation Using Displacement Fields [25.3479048674598]
単眼画像からの深度マップ予測の現在の手法は、滑らかで、局所的でない輪郭を予測しがちである。
我々は,何らかの再構成法により予測される深度マップから,閉塞境界付近の画素をよりシャープな再構成に再サンプリングできる2次元変位場を予測することを学ぶ。
本手法は, エンド・ツー・エンドのトレーニング可能な方法で, 任意の深さ推定手法の出力に適用できる。
論文 参考訳(メタデータ) (2020-02-28T14:15:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。