論文の概要: DualFocus: Depth from Focus with Spatio-Focal Dual Variational Constraints
- arxiv url: http://arxiv.org/abs/2509.21992v1
- Date: Fri, 26 Sep 2025 07:15:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.266048
- Title: DualFocus: Depth from Focus with Spatio-Focal Dual Variational Constraints
- Title(参考訳): DualFocus: 局所局所的2値変動制約による焦点深度
- Authors: Sungmin Woo, Sangyoun Lee,
- Abstract要約: DFFフレームワークであるDualFocusは、フォーカス変動によって引き起こされる焦点スタックの特異な勾配パターンを利用する。
DualFocus は深度精度と知覚品質の両方で最先端の手法を一貫して上回っていることを示す。
- 参考スコア(独自算出の注目度): 26.266318338511876
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Depth-from-Focus (DFF) enables precise depth estimation by analyzing focus cues across a stack of images captured at varying focal lengths. While recent learning-based approaches have advanced this field, they often struggle in complex scenes with fine textures or abrupt depth changes, where focus cues may become ambiguous or misleading. We present DualFocus, a novel DFF framework that leverages the focal stack's unique gradient patterns induced by focus variation, jointly modeling focus changes over spatial and focal dimensions. Our approach introduces a variational formulation with dual constraints tailored to DFF: spatial constraints exploit gradient pattern changes across focus levels to distinguish true depth edges from texture artifacts, while focal constraints enforce unimodal, monotonic focus probabilities aligned with physical focus behavior. These inductive biases improve robustness and accuracy in challenging regions. Comprehensive experiments on four public datasets demonstrate that DualFocus consistently outperforms state-of-the-art methods in both depth accuracy and perceptual quality.
- Abstract(参考訳): DFF(Depth-from-Focus)は、焦点距離の異なる画像のスタックにわたるフォーカスキューを分析することによって、正確な深さ推定を可能にする。
近年の学習ベースのアプローチはこの領域を進歩させてきたが、しばしば複雑な場面で細かなテクスチャや急激な深さの変化に悩まされ、焦点の手がかりが曖昧になり、誤解を招くことがある。
DFFフレームワークであるDualFocusを提案する。DualFocusは、焦点の変動によって引き起こされる焦点スタックの特異な勾配パターンを利用して、空間的および焦点的次元の焦点変化をモデリングする。
空間的制約は、焦点レベルの勾配パターン変化を利用して、テクスチャと真の深さのエッジを区別する一方、焦点制約は物理的焦点の挙動に合わせて一様で単調な焦点確率を強制する。
これらの誘導バイアスは、挑戦領域の堅牢性と正確性を改善する。
4つの公開データセットに関する総合的な実験により、DualFocusは深度精度と知覚品質の両方で最先端の手法を一貫して上回っていることが示された。
関連論文リスト
- Dark Channel-Assisted Depth-from-Defocus from a Single Image [4.005483185111993]
暗いチャネルを補完的なキューとして用いた1つのデフォーカスブルー画像からシーン深度を推定する。
本手法は,局所的なデフォーカスのぼかしとコントラストの変動を深度的手法として用いて,シーン構造の推定を改善する。
論文 参考訳(メタデータ) (2025-06-07T03:49:26Z) - Adjust Your Focus: Defocus Deblurring From Dual-Pixel Images Using Explicit Multi-Scale Cross-Correlation [1.661922907889139]
写真ではデフォーカスのぼかしが一般的な問題である。
最近の研究は、この問題を解決するためにデュアルピクセル(DP)画像情報を活用している。
本稿では,2つのDPビュー間の相互相関関係を明示的に提案し,ネットワークの適切な振れを導出する。
論文 参考訳(メタデータ) (2025-02-16T05:55:57Z) - Depth and DOF Cues Make A Better Defocus Blur Detector [27.33757097343283]
Defocus blur detection(DBD)は、画像内のin-focus領域とout-of-focus領域を分離する。
以前のアプローチでは、デフォーカスのぼやけた領域に焦点をあてた均一な領域を誤って間違えていた。
我々はD-DFFNetと呼ばれるアプローチを提案し、奥行きとDOFの手がかりを暗黙的に組み込む。
論文 参考訳(メタデータ) (2023-06-20T07:03:37Z) - Fully Self-Supervised Depth Estimation from Defocus Clue [79.63579768496159]
スパース焦点スタックから深度を純粋に推定する自己教師型フレームワークを提案する。
筆者らのフレームワークは,深度とAIF画像の接地構造の必要性を回避し,より優れた予測を得られることを示す。
論文 参考訳(メタデータ) (2023-03-19T19:59:48Z) - DAQE: Enhancing the Quality of Compressed Images by Finding the Secret
of Defocus [52.795238584413]
圧縮画像の既存の品質向上手法は、デフォーカスの性質を無視し、性能が劣る。
本稿では,2つの側面において圧縮画像の領域的デフォーカス差を考慮したDAQE手法の動的領域ベースディープラーニングアーキテクチャを提案する。
DAQEアプローチは、異なるデフォーカス値を持つ領域の多様なテクスチャパターンを別々に拡張することを学び、テクスチャワイドワン・ワン・ワン・ワン・エンハンスメントを実現する。
論文 参考訳(メタデータ) (2022-11-20T14:08:47Z) - Deep Depth from Focus with Differential Focus Volume [17.505649653615123]
焦点スタック内の最良焦点画素を抽出し,焦点推定から深度を推定するための畳み込みニューラルネットワーク(CNN)を提案する。
ネットワークの重要な革新は、新しいディープディファレンシャルフォーカスボリューム(DFV)である。
論文 参考訳(メタデータ) (2021-12-03T04:49:51Z) - Defocus Blur Detection via Depth Distillation [64.78779830554731]
初めてDBDに深度情報を導入します。
より詳しくは, 地底の真理と, 十分に訓練された深度推定ネットワークから抽出した深度から, デフォーカスのぼかしを学習する。
我々の手法は、2つの一般的なデータセット上で11の最先端の手法より優れています。
論文 参考訳(メタデータ) (2020-07-16T04:58:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。