論文の概要: Dark Channel-Assisted Depth-from-Defocus from a Single Image
- arxiv url: http://arxiv.org/abs/2506.06643v1
- Date: Sat, 07 Jun 2025 03:49:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.37466
- Title: Dark Channel-Assisted Depth-from-Defocus from a Single Image
- Title(参考訳): 単一画像からの暗チャンネル支援深度
- Authors: Moushumi Medhi, Rajiv Ranjan Sahay,
- Abstract要約: 我々は、暗いチャネルを補完的なキューとして使用し、1つの空間可変デフォーカス画像からシーンの深さを推定する。
提案手法は, 局所的なデフォーカスのぼかしとコントラストの変動をキー深さの手がかりとする。
現実的な深度誘起デフォーカスのぼかしを用いた実データによる実験により、単一画像DFDに暗黒チャネルを組み込むことで、意味のある深度推定結果が得られることが示された。
- 参考スコア(独自算出の注目度): 4.005483185111993
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we utilize the dark channel as a complementary cue to estimate the depth of a scene from a single space-variant defocus blurred image due to its effectiveness in implicitly capturing the local statistics of blurred images and the scene structure. Existing depth-from-defocus (DFD) techniques typically rely on multiple images with varying apertures or focus settings to recover depth information. Very few attempts have focused on DFD from a single defocused image due to the underconstrained nature of the problem. Our method capitalizes on the relationship between local defocus blur and contrast variations as key depth cues to enhance the overall performance in estimating the scene's structure. The entire pipeline is trained adversarially in a fully end-to-end fashion. Experiments conducted on real data with realistic depth-induced defocus blur demonstrate that incorporating dark channel prior into single image DFD yields meaningful depth estimation results, validating the effectiveness of our approach.
- Abstract(参考訳): 本稿では,暗黒チャネルを補完的手がかりとして,ぼやけた画像と風景構造の局所的統計を暗黙的に捉える効果により,一つの空間不変デフォーカス画像からシーンの深さを推定する。
既存のdeep-from-defocus(DFD)技術は通常、深度情報を復元するために様々な開口や焦点設定を持つ複数の画像に依存している。
この問題の制約の少ない性質のため、単一の非焦点画像からDFDに焦点を当てる試みはほとんどない。
本手法は,局所的なデフォーカスのぼかしとコントラストの変動の関係を鍵深度手法として生かし,シーンの構造を推定する際の全体的な性能を向上させる。
パイプライン全体は、完全にエンドツーエンドの方法で逆行的にトレーニングされます。
実測データを用いた実測実験により,単一画像に先行して暗黒チャネルを組み込むことで,有意義な深度推定結果が得られ,本手法の有効性が検証された。
関連論文リスト
- Blur aware metric depth estimation with multi-focus plenoptic cameras [8.508198765617196]
多焦点レンズカメラからの原画像のみを用いた新しい距離深度推定アルゴリズムを提案する。
提案手法は、焦点距離の異なる複数のマイクロレンズを用いるマルチフォーカス構成に特に適している。
論文 参考訳(メタデータ) (2023-08-08T13:38:50Z) - Depth and DOF Cues Make A Better Defocus Blur Detector [27.33757097343283]
Defocus blur detection(DBD)は、画像内のin-focus領域とout-of-focus領域を分離する。
以前のアプローチでは、デフォーカスのぼやけた領域に焦点をあてた均一な領域を誤って間違えていた。
我々はD-DFFNetと呼ばれるアプローチを提案し、奥行きとDOFの手がかりを暗黙的に組み込む。
論文 参考訳(メタデータ) (2023-06-20T07:03:37Z) - Fully Self-Supervised Depth Estimation from Defocus Clue [79.63579768496159]
スパース焦点スタックから深度を純粋に推定する自己教師型フレームワークを提案する。
筆者らのフレームワークは,深度とAIF画像の接地構造の必要性を回避し,より優れた予測を得られることを示す。
論文 参考訳(メタデータ) (2023-03-19T19:59:48Z) - Deep Depth from Focal Stack with Defocus Model for Camera-Setting
Invariance [19.460887007137607]
シーン深度を推定するための入力として焦点スタックを利用する,フォーカス/デフォーカス(DFF)からの学習に基づく深度を提案する。
提案手法は, 合成ドメインギャップに対して頑健であり, 最先端の性能を示す。
論文 参考訳(メタデータ) (2022-02-26T04:21:08Z) - Deep Depth from Focus with Differential Focus Volume [17.505649653615123]
焦点スタック内の最良焦点画素を抽出し,焦点推定から深度を推定するための畳み込みニューラルネットワーク(CNN)を提案する。
ネットワークの重要な革新は、新しいディープディファレンシャルフォーカスボリューム(DFV)である。
論文 参考訳(メタデータ) (2021-12-03T04:49:51Z) - Bridging Unsupervised and Supervised Depth from Focus via All-in-Focus
Supervision [10.547816678110417]
提案手法は、地上の真理深度で監督的に訓練するか、AiF画像で監督的に訓練することができる。
種々の実験において,本手法は定量的かつ定性的に,最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-08-24T17:09:13Z) - Defocus Blur Detection via Depth Distillation [64.78779830554731]
初めてDBDに深度情報を導入します。
より詳しくは, 地底の真理と, 十分に訓練された深度推定ネットワークから抽出した深度から, デフォーカスのぼかしを学習する。
我々の手法は、2つの一般的なデータセット上で11の最先端の手法より優れています。
論文 参考訳(メタデータ) (2020-07-16T04:58:09Z) - Single Image Depth Estimation Trained via Depth from Defocus Cues [105.67073923825842]
単一のRGB画像から深度を推定することはコンピュータビジョンの基本的な課題である。
この作業では、異なる視点ではなく、フォーカスキューからの奥行きに依存しています。
我々は,KITTIとMake3Dデータセットの教師あり手法と同等な結果を提示し,教師なし学習手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-01-14T20:22:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。