論文の概要: Blurry-Edges: Photon-Limited Depth Estimation from Defocused Boundaries
- arxiv url: http://arxiv.org/abs/2503.23606v1
- Date: Sun, 30 Mar 2025 22:17:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-01 19:35:57.203879
- Title: Blurry-Edges: Photon-Limited Depth Estimation from Defocused Boundaries
- Title(参考訳): ブラリーエッジ:非集中境界からの光子制限深さ推定
- Authors: Wei Xu, Charles James Wagner, Junjie Luo, Qi Guo,
- Abstract要約: 本稿では,光子制限画像から被写体深度を非集束境界に沿って頑健に測定する新しい手法を提案する。
これは新しいイメージパッチ表現であるBlurry-Edgesに基づいており、バウンダリ、色、滑らかさを含む、低レベルのパッチ情報の豊富なセットを明示的に保存し視覚化する。
- 参考スコア(独自算出の注目度): 9.723762227632378
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Extracting depth information from photon-limited, defocused images is challenging because depth from defocus (DfD) relies on accurate estimation of defocus blur, which is fundamentally sensitive to image noise. We present a novel approach to robustly measure object depths from photon-limited images along the defocused boundaries. It is based on a new image patch representation, Blurry-Edges, that explicitly stores and visualizes a rich set of low-level patch information, including boundaries, color, and smoothness. We develop a deep neural network architecture that predicts the Blurry-Edges representation from a pair of differently defocused images, from which depth can be calculated using a closed-form DfD relation we derive. The experimental results on synthetic and real data show that our method achieves the highest depth estimation accuracy on photon-limited images compared to a broad range of state-of-the-art DfD methods.
- Abstract(参考訳): デフォーカス(DfD)の奥行きは、画像ノイズに基本的に敏感なデフォーカスブラーの正確な推定に依存するため、光子限定のデフォーカス画像から深度情報を抽出することは困難である。
本稿では,光子制限画像から被写体深度を非集束境界に沿って頑健に測定する新しい手法を提案する。
これは新しいイメージパッチ表現であるBlurry-Edgesに基づいており、境界、色、滑らかさを含む低レベルのパッチ情報の豊富なセットを明示的に保存し視覚化する。
そこで我々は,Blurry-Edges表現を一対の異なる非焦点画像から予測するディープニューラルネットワークアーキテクチャを開発し,そこから導出した閉形式DfD関係を用いて深度を計算する。
合成および実データによる実験結果から,本手法は,多種多様なDfD法と比較して,光子制限画像における最深度推定精度が高かった。
関連論文リスト
- Marigold-DC: Zero-Shot Monocular Depth Completion with Guided Diffusion [51.69876947593144]
奥行き完了のための既存の手法は、厳密に制約された設定で動作する。
単眼深度推定の進歩に触発されて,画像条件の深度マップ生成として深度補完を再構成した。
Marigold-DCは、単分子深度推定のための事前訓練された潜伏拡散モデルを構築し、試験時間ガイダンスとして深度観測を注入する。
論文 参考訳(メタデータ) (2024-12-18T00:06:41Z) - Robust Depth Enhancement via Polarization Prompt Fusion Tuning [112.88371907047396]
様々な深度センサによる不正確な深度測定を改善するために偏光イメージングを利用するフレームワークを提案する。
まず、偏光データとセンサ深度マップから高密度で完全な深度マップを推定するために、ニューラルネットワークを訓練した学習ベースの戦略を採用する。
大規模データセット上で事前学習したRGBモデルを有効に活用するためのPPFT(Polarization Prompt Fusion Tuning)戦略を提案する。
論文 参考訳(メタデータ) (2024-04-05T17:55:33Z) - Deep Phase Coded Image Prior [34.84063452418995]
位相符号化イメージングは受動深度推定や拡大深度推定といった課題に対処する手法である。
深度推定やオールインフォーカスイメージングのための現在のディープラーニングベースの手法のほとんどは、高品質の深度マップを備えたトレーニングデータセットを必要とする。
本稿では,深度マップと全焦点画像の同時復元のためのDPCIP (Deep Phase Coded Image Prior) を提案する。
論文 参考訳(メタデータ) (2024-04-05T05:58:40Z) - Depth and DOF Cues Make A Better Defocus Blur Detector [27.33757097343283]
Defocus blur detection(DBD)は、画像内のin-focus領域とout-of-focus領域を分離する。
以前のアプローチでは、デフォーカスのぼやけた領域に焦点をあてた均一な領域を誤って間違えていた。
我々はD-DFFNetと呼ばれるアプローチを提案し、奥行きとDOFの手がかりを暗黙的に組み込む。
論文 参考訳(メタデータ) (2023-06-20T07:03:37Z) - Fully Self-Supervised Depth Estimation from Defocus Clue [79.63579768496159]
スパース焦点スタックから深度を純粋に推定する自己教師型フレームワークを提案する。
筆者らのフレームワークは,深度とAIF画像の接地構造の必要性を回避し,より優れた予測を得られることを示す。
論文 参考訳(メタデータ) (2023-03-19T19:59:48Z) - End-to-end Learning for Joint Depth and Image Reconstruction from
Diffracted Rotation [10.896567381206715]
回折回転から深度を学習する新しいエンド・ツー・エンド学習手法を提案する。
提案手法は, 単分子深度推定のタスクにおいて既存の手法よりもはるかに少ない複雑なモデルと少ないトレーニングデータを必要とする。
論文 参考訳(メタデータ) (2022-04-14T16:14:37Z) - Adaptive Weighted Guided Image Filtering for Depth Enhancement in
Shape-From-Focus [28.82811159799952]
フォーカスからの形状(SFF)技術は、多焦点画像のシーケンスから深度エッジや微細構造の詳細を保存できない。
適応重み付きガイド画像フィルタリング(AWGIF)に基づくSFFのための新しい深度強調アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-01-18T08:52:26Z) - Single image deep defocus estimation and its applications [82.93345261434943]
画像パッチを20レベルの曖昧さの1つに分類するために、ディープニューラルネットワークをトレーニングします。
トレーニングされたモデルは、反復重み付きガイドフィルタを適用して改善するパッチのぼかしを決定するために使用される。
その結果、デフォーカスマップは各ピクセルのぼやけた度合いの情報を運ぶ。
論文 参考訳(メタデータ) (2021-07-30T06:18:16Z) - Deep Multi-Scale Feature Learning for Defocus Blur Estimation [10.455763145066168]
本稿では,1つの非焦点画像からエッジベースのデフォーカスボケ推定手法を提案する。
まず、深さの不連続性(ぼかし推定が曖昧な)にあるエッジと、ほぼ一定の深さ領域にあるエッジ(ぼかし推定が適切に定義されたパターンエッジ)とを区別する。
パターンエッジのみにおけるデフォーカスのぼかし量を推定し,検出した深度エッジ間のデータ伝搬を防止し,適切に定義されたオブジェクト境界を持つ濃密なぼかしマップを得るためのガイド付きフィルタに基づくスキームを探索する。
論文 参考訳(メタデータ) (2020-09-24T20:36:40Z) - Defocus Blur Detection via Depth Distillation [64.78779830554731]
初めてDBDに深度情報を導入します。
より詳しくは, 地底の真理と, 十分に訓練された深度推定ネットワークから抽出した深度から, デフォーカスのぼかしを学習する。
我々の手法は、2つの一般的なデータセット上で11の最先端の手法より優れています。
論文 参考訳(メタデータ) (2020-07-16T04:58:09Z) - Depth Completion Using a View-constrained Deep Prior [73.21559000917554]
近年の研究では、畳み込みニューラルネットワーク(CNN)の構造が、自然画像に有利な強い先行性をもたらすことが示されている。
この前者はディープ・イメージ・先行 (DIP) と呼ばれ、画像の装飾や塗装といった逆問題において有効な正則化器である。
我々は、DIPの概念を深度画像に拡張し、色画像とノイズと不完全な目標深度マップから、CNNネットワーク構造を先行して復元された深度マップを再構成する。
論文 参考訳(メタデータ) (2020-01-21T21:56:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。