論文の概要: Dark Channel-Assisted Depth-from-Defocus from a Single Image
- arxiv url: http://arxiv.org/abs/2506.06643v2
- Date: Wed, 25 Jun 2025 16:28:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-26 14:36:56.472866
- Title: Dark Channel-Assisted Depth-from-Defocus from a Single Image
- Title(参考訳): 単一画像からの暗チャンネル支援深度
- Authors: Moushumi Medhi, Rajiv Ranjan Sahay,
- Abstract要約: 暗いチャネルを補完的なキューとして用いた1つのデフォーカスブルー画像からシーン深度を推定する。
本手法は,局所的なデフォーカスのぼかしとコントラストの変動を深度的手法として用いて,シーン構造の推定を改善する。
- 参考スコア(独自算出の注目度): 4.005483185111993
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We estimate scene depth from a single defocus-blurred image using the dark channel as a complementary cue, leveraging its ability to capture local statistics and scene structure. Traditional depth-from-defocus (DFD) methods use multiple images with varying apertures or focus. Single-image DFD is underexplored due to its inherent challenges. Few attempts have focused on depth-from-defocus (DFD) from a single defocused image because the problem is underconstrained. Our method uses the relationship between local defocus blur and contrast variations as depth cues to improve scene structure estimation. The pipeline is trained end-to-end with adversarial learning. Experiments on real data demonstrate that incorporating the dark channel prior into single-image DFD provides meaningful depth estimation, validating our approach.
- Abstract(参考訳): 局所的な統計やシーン構造を捉える能力を活用し,ダークチャネルを補完的なキューとして用いた単一デフォーカスブルー画像からシーン深度を推定する。
従来のdeep-from-defocus(DFD)メソッドは、様々な開口や焦点を持つ複数のイメージを使用する。
単一像DFDは、その固有の課題のために探索が過小評価されている。
問題に制約があるため、単一の非焦点画像からのdeep-from-defocus(DFD)に焦点を当てる試みはほとんどない。
本手法は,局所的なデフォーカスのぼかしとコントラストの変動を深度的手法として用いて,シーン構造の推定を改善する。
パイプラインは、敵対的な学習でエンドツーエンドにトレーニングされる。
実データを用いた実験により、単一画像のDFDに先立ってダークチャネルを組み込むことで意味のある深度推定が可能となり、我々のアプローチが検証された。
関連論文リスト
- Blur aware metric depth estimation with multi-focus plenoptic cameras [8.508198765617196]
多焦点レンズカメラからの原画像のみを用いた新しい距離深度推定アルゴリズムを提案する。
提案手法は、焦点距離の異なる複数のマイクロレンズを用いるマルチフォーカス構成に特に適している。
論文 参考訳(メタデータ) (2023-08-08T13:38:50Z) - Depth and DOF Cues Make A Better Defocus Blur Detector [27.33757097343283]
Defocus blur detection(DBD)は、画像内のin-focus領域とout-of-focus領域を分離する。
以前のアプローチでは、デフォーカスのぼやけた領域に焦点をあてた均一な領域を誤って間違えていた。
我々はD-DFFNetと呼ばれるアプローチを提案し、奥行きとDOFの手がかりを暗黙的に組み込む。
論文 参考訳(メタデータ) (2023-06-20T07:03:37Z) - Fully Self-Supervised Depth Estimation from Defocus Clue [79.63579768496159]
スパース焦点スタックから深度を純粋に推定する自己教師型フレームワークを提案する。
筆者らのフレームワークは,深度とAIF画像の接地構造の必要性を回避し,より優れた予測を得られることを示す。
論文 参考訳(メタデータ) (2023-03-19T19:59:48Z) - Deep Depth from Focal Stack with Defocus Model for Camera-Setting
Invariance [19.460887007137607]
シーン深度を推定するための入力として焦点スタックを利用する,フォーカス/デフォーカス(DFF)からの学習に基づく深度を提案する。
提案手法は, 合成ドメインギャップに対して頑健であり, 最先端の性能を示す。
論文 参考訳(メタデータ) (2022-02-26T04:21:08Z) - Deep Depth from Focus with Differential Focus Volume [17.505649653615123]
焦点スタック内の最良焦点画素を抽出し,焦点推定から深度を推定するための畳み込みニューラルネットワーク(CNN)を提案する。
ネットワークの重要な革新は、新しいディープディファレンシャルフォーカスボリューム(DFV)である。
論文 参考訳(メタデータ) (2021-12-03T04:49:51Z) - Bridging Unsupervised and Supervised Depth from Focus via All-in-Focus
Supervision [10.547816678110417]
提案手法は、地上の真理深度で監督的に訓練するか、AiF画像で監督的に訓練することができる。
種々の実験において,本手法は定量的かつ定性的に,最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-08-24T17:09:13Z) - Defocus Blur Detection via Depth Distillation [64.78779830554731]
初めてDBDに深度情報を導入します。
より詳しくは, 地底の真理と, 十分に訓練された深度推定ネットワークから抽出した深度から, デフォーカスのぼかしを学習する。
我々の手法は、2つの一般的なデータセット上で11の最先端の手法より優れています。
論文 参考訳(メタデータ) (2020-07-16T04:58:09Z) - Single Image Depth Estimation Trained via Depth from Defocus Cues [105.67073923825842]
単一のRGB画像から深度を推定することはコンピュータビジョンの基本的な課題である。
この作業では、異なる視点ではなく、フォーカスキューからの奥行きに依存しています。
我々は,KITTIとMake3Dデータセットの教師あり手法と同等な結果を提示し,教師なし学習手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-01-14T20:22:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。