論文の概要: Deep Multi-Scale Feature Learning for Defocus Blur Estimation
- arxiv url: http://arxiv.org/abs/2009.11939v2
- Date: Sun, 7 Nov 2021 17:29:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 04:41:09.651964
- Title: Deep Multi-Scale Feature Learning for Defocus Blur Estimation
- Title(参考訳): デフォーカスブラア推定のための深層マルチスケール特徴学習
- Authors: Ali Karaali, Naomi Harte, Claudio Rosito Jung
- Abstract要約: 本稿では,1つの非焦点画像からエッジベースのデフォーカスボケ推定手法を提案する。
まず、深さの不連続性(ぼかし推定が曖昧な)にあるエッジと、ほぼ一定の深さ領域にあるエッジ(ぼかし推定が適切に定義されたパターンエッジ)とを区別する。
パターンエッジのみにおけるデフォーカスのぼかし量を推定し,検出した深度エッジ間のデータ伝搬を防止し,適切に定義されたオブジェクト境界を持つ濃密なぼかしマップを得るためのガイド付きフィルタに基づくスキームを探索する。
- 参考スコア(独自算出の注目度): 10.455763145066168
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents an edge-based defocus blur estimation method from a
single defocused image. We first distinguish edges that lie at depth
discontinuities (called depth edges, for which the blur estimate is ambiguous)
from edges that lie at approximately constant depth regions (called pattern
edges, for which the blur estimate is well-defined). Then, we estimate the
defocus blur amount at pattern edges only, and explore an interpolation scheme
based on guided filters that prevents data propagation across the detected
depth edges to obtain a dense blur map with well-defined object boundaries.
Both tasks (edge classification and blur estimation) are performed by deep
convolutional neural networks (CNNs) that share weights to learn meaningful
local features from multi-scale patches centered at edge locations. Experiments
on naturally defocused images show that the proposed method presents
qualitative and quantitative results that outperform state-of-the-art (SOTA)
methods, with a good compromise between running time and accuracy.
- Abstract(参考訳): 本稿では,単一デフォーカス画像からエッジベースデフォーカスボケ推定法を提案する。
まず、深さの不連続性(ぼかし推定が曖昧である深さ辺と呼ばれる)にあるエッジと、ほぼ一定の深さ領域にあるエッジ(ぼかし推定が明確に定義されたパターンエッジと呼ばれる)とを区別する。
次に,パターンエッジのみのデフォーカスぼけ量を推定し,検出された深さエッジを横断するデータ伝搬を防止するガイドフィルタに基づく補間スキームを探索し,オブジェクト境界が明確に定義された濃密なぼやけマップを得る。
両方のタスク(エッジ分類とボケ推定)は、エッジロケーションを中心としたマルチスケールパッチから意味のあるローカル特徴を学ぶために重みを共有するディープ畳み込みニューラルネットワーク(CNN)によって実行される。
自然デフォーカス画像を用いた実験により,提案手法は定性的かつ定量的な結果を示し,動作時間と精度の両立を図った。
関連論文リスト
- Blur aware metric depth estimation with multi-focus plenoptic cameras [8.508198765617196]
多焦点レンズカメラからの原画像のみを用いた新しい距離深度推定アルゴリズムを提案する。
提案手法は、焦点距離の異なる複数のマイクロレンズを用いるマルチフォーカス構成に特に適している。
論文 参考訳(メタデータ) (2023-08-08T13:38:50Z) - Depth and DOF Cues Make A Better Defocus Blur Detector [27.33757097343283]
Defocus blur detection(DBD)は、画像内のin-focus領域とout-of-focus領域を分離する。
以前のアプローチでは、デフォーカスのぼやけた領域に焦点をあてた均一な領域を誤って間違えていた。
我々はD-DFFNetと呼ばれるアプローチを提案し、奥行きとDOFの手がかりを暗黙的に組み込む。
論文 参考訳(メタデータ) (2023-06-20T07:03:37Z) - Fully Self-Supervised Depth Estimation from Defocus Clue [79.63579768496159]
スパース焦点スタックから深度を純粋に推定する自己教師型フレームワークを提案する。
筆者らのフレームワークは,深度とAIF画像の接地構造の必要性を回避し,より優れた予測を得られることを示す。
論文 参考訳(メタデータ) (2023-03-19T19:59:48Z) - Single image deep defocus estimation and its applications [82.93345261434943]
画像パッチを20レベルの曖昧さの1つに分類するために、ディープニューラルネットワークをトレーニングします。
トレーニングされたモデルは、反復重み付きガイドフィルタを適用して改善するパッチのぼかしを決定するために使用される。
その結果、デフォーカスマップは各ピクセルのぼやけた度合いの情報を運ぶ。
論文 参考訳(メタデータ) (2021-07-30T06:18:16Z) - Edge-aware Bidirectional Diffusion for Dense Depth Estimation from Light
Fields [31.941861222005603]
本研究では,光場から深度エッジと勾配のスパースセットを用いて高速かつ正確な深度マップを推定するアルゴリズムを提案する。
提案手法は,テクスチャエッジよりも深度エッジの方が局所的制約に敏感であるという考え方に基づいている。
論文 参考訳(メタデータ) (2021-07-07T01:26:25Z) - Adaptive confidence thresholding for monocular depth estimation [83.06265443599521]
本稿では,自己教師付ステレオマッチング法から生成されたステレオ画像の擬似地上真実深度マップを利用する新しい手法を提案する。
擬似地底深度マップの信頼度マップを推定し、不正確な擬似地底深度マップによる性能劣化を緩和する。
実験結果から, 最先端の単分子深度推定法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-09-27T13:26:16Z) - View-consistent 4D Light Field Depth Estimation [37.04038603184669]
本研究では,光場内の各サブアパーチャ画像の深度マップを一貫したビューで計算する手法を提案する。
提案手法は,EPIを用いて深度エッジを正確に定義し,その辺を中央の視野内で空間的に拡散させる。
論文 参考訳(メタデータ) (2020-09-09T01:47:34Z) - Non-Local Spatial Propagation Network for Depth Completion [82.60915972250706]
本研究では,深度完了のための堅牢で効率的な非局所的空間伝搬ネットワークを提案する。
提案するネットワークは,RGBとスパース深度画像を入力とし,各画素の非局所的近傍とその親和性を推定する。
提案アルゴリズムは,混合深度問題に対する深度補完精度とロバスト性の観点から,従来のアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-07-20T12:26:51Z) - Defocus Blur Detection via Depth Distillation [64.78779830554731]
初めてDBDに深度情報を導入します。
より詳しくは, 地底の真理と, 十分に訓練された深度推定ネットワークから抽出した深度から, デフォーカスのぼかしを学習する。
我々の手法は、2つの一般的なデータセット上で11の最先端の手法より優れています。
論文 参考訳(メタデータ) (2020-07-16T04:58:09Z) - Predicting Sharp and Accurate Occlusion Boundaries in Monocular Depth
Estimation Using Displacement Fields [25.3479048674598]
単眼画像からの深度マップ予測の現在の手法は、滑らかで、局所的でない輪郭を予測しがちである。
我々は,何らかの再構成法により予測される深度マップから,閉塞境界付近の画素をよりシャープな再構成に再サンプリングできる2次元変位場を予測することを学ぶ。
本手法は, エンド・ツー・エンドのトレーニング可能な方法で, 任意の深さ推定手法の出力に適用できる。
論文 参考訳(メタデータ) (2020-02-28T14:15:07Z) - Single Image Depth Estimation Trained via Depth from Defocus Cues [105.67073923825842]
単一のRGB画像から深度を推定することはコンピュータビジョンの基本的な課題である。
この作業では、異なる視点ではなく、フォーカスキューからの奥行きに依存しています。
我々は,KITTIとMake3Dデータセットの教師あり手法と同等な結果を提示し,教師なし学習手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-01-14T20:22:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。