論文の概要: Deep Depth from Focus with Differential Focus Volume
- arxiv url: http://arxiv.org/abs/2112.01712v1
- Date: Fri, 3 Dec 2021 04:49:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-06 15:54:49.200629
- Title: Deep Depth from Focus with Differential Focus Volume
- Title(参考訳): 差動焦点容積による焦点からの深部深部深度
- Authors: Fengting Yang, Xiaolei Huang, Zihan Zhou
- Abstract要約: 焦点スタック内の最良焦点画素を抽出し,焦点推定から深度を推定するための畳み込みニューラルネットワーク(CNN)を提案する。
ネットワークの重要な革新は、新しいディープディファレンシャルフォーカスボリューム(DFV)である。
- 参考スコア(独自算出の注目度): 17.505649653615123
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Depth-from-focus (DFF) is a technique that infers depth using the focus
change of a camera. In this work, we propose a convolutional neural network
(CNN) to find the best-focused pixels in a focal stack and infer depth from the
focus estimation. The key innovation of the network is the novel deep
differential focus volume (DFV). By computing the first-order derivative with
the stacked features over different focal distances, DFV is able to capture
both the focus and context information for focus analysis. Besides, we also
introduce a probability regression mechanism for focus estimation to handle
sparsely sampled focal stacks and provide uncertainty estimation to the final
prediction. Comprehensive experiments demonstrate that the proposed model
achieves state-of-the-art performance on multiple datasets with good
generalizability and fast speed.
- Abstract(参考訳): Depth-from-focus (DFF) は、カメラの焦点変化を用いて深度を推定する手法である。
本研究では,焦点スタック内の最良焦点画素を推定し,焦点推定から深度を推定するための畳み込みニューラルネットワーク(CNN)を提案する。
ネットワークの重要な革新は、新しいディープディファレンシャルフォーカスボリューム(DFV)である。
異なる焦点距離に積み重ねられた特徴を持つ一階微分を計算することにより、dfvはフォーカス分析のためにフォーカス情報とコンテキスト情報の両方をキャプチャできる。
また,焦点推定のための確率回帰機構を導入し,サンプルの少ない焦点スタックを扱い,最終予測に不確実性推定を提供する。
包括的実験により,提案モデルが一般化性と高速性を有する複数のデータセット上での最先端性能を実現することを示す。
関連論文リスト
- Learning Monocular Depth from Focus with Event Focal Stack [6.200121342586474]
イベントフォカルスタックからスパース深さを推定するEDFFネットワークを提案する。
イベントボクセルグリッドを用いて、強度変化情報とプロジェクトイベント時間表面を深度領域にエンコードする。
上記の情報を融合させるために、Focal-Distance-Guided Cross-Modal Attention Moduleが提示される。
論文 参考訳(メタデータ) (2024-05-11T07:54:49Z) - Towards Real-World Focus Stacking with Deep Learning [97.34754533628322]
焦点ブラケットを用いた94個の高解像度原画像のバーストからなる新しいデータセットを提案する。
このデータセットは、現実世界のアプリケーションに十分な長さのバーストを処理できるフォーカススタックのための最初のディープラーニングアルゴリズムをトレーニングするために使用される。
論文 参考訳(メタデータ) (2023-11-29T17:49:33Z) - Blur aware metric depth estimation with multi-focus plenoptic cameras [8.508198765617196]
多焦点レンズカメラからの原画像のみを用いた新しい距離深度推定アルゴリズムを提案する。
提案手法は、焦点距離の異なる複数のマイクロレンズを用いるマルチフォーカス構成に特に適している。
論文 参考訳(メタデータ) (2023-08-08T13:38:50Z) - FS-Depth: Focal-and-Scale Depth Estimation from a Single Image in Unseen
Indoor Scene [57.26600120397529]
実際の(見えない)屋内シーンの単一の画像から絶対深度マップを予測するのには、長年不適切な問題だった。
本研究では,未確認屋内シーンの単一画像から絶対深度マップを正確に学習するための焦点・スケール深度推定モデルを開発した。
論文 参考訳(メタデータ) (2023-07-27T04:49:36Z) - Depth and DOF Cues Make A Better Defocus Blur Detector [27.33757097343283]
Defocus blur detection(DBD)は、画像内のin-focus領域とout-of-focus領域を分離する。
以前のアプローチでは、デフォーカスのぼやけた領域に焦点をあてた均一な領域を誤って間違えていた。
我々はD-DFFNetと呼ばれるアプローチを提案し、奥行きとDOFの手がかりを暗黙的に組み込む。
論文 参考訳(メタデータ) (2023-06-20T07:03:37Z) - Fully Self-Supervised Depth Estimation from Defocus Clue [79.63579768496159]
スパース焦点スタックから深度を純粋に推定する自己教師型フレームワークを提案する。
筆者らのフレームワークは,深度とAIF画像の接地構造の必要性を回避し,より優れた予測を得られることを示す。
論文 参考訳(メタデータ) (2023-03-19T19:59:48Z) - Aberration-Aware Depth-from-Focus [20.956132508261664]
焦点スタックにおける最良焦点フレームの決定に影響を及ぼすオフ軸収差による領域ギャップについて検討する。
次に、収差認識トレーニング(AAT)を通じて、この領域ギャップをブリッジすることを検討する。
我々のアプローチは、異なる位置でレンズ収差をモデル化し、フォーカス距離をモデル化する軽量ネットワークで、従来のネットワークトレーニングパイプラインに統合される。
論文 参考訳(メタデータ) (2023-03-08T15:21:33Z) - Precise Point Spread Function Estimation [6.076995573805468]
我々はデフォーカス過程を記述するために,カメラの点展開関数の正確な数学的モデルを開発する。
標準平面および実物体に関する実験により,提案アルゴリズムがデフォーカス過程を正確に記述できることが示されている。
論文 参考訳(メタデータ) (2022-03-06T12:43:27Z) - Single image deep defocus estimation and its applications [82.93345261434943]
画像パッチを20レベルの曖昧さの1つに分類するために、ディープニューラルネットワークをトレーニングします。
トレーニングされたモデルは、反復重み付きガイドフィルタを適用して改善するパッチのぼかしを決定するために使用される。
その結果、デフォーカスマップは各ピクセルのぼやけた度合いの情報を運ぶ。
論文 参考訳(メタデータ) (2021-07-30T06:18:16Z) - A learning-based view extrapolation method for axial super-resolution [52.748944517480155]
軸光界分解能は、再焦点によって異なる深さで特徴を区別する能力を指します。
せん断エピポーラ平面画像の軸体積から新しい視点を推定する学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-11T07:22:13Z) - Defocus Blur Detection via Depth Distillation [64.78779830554731]
初めてDBDに深度情報を導入します。
より詳しくは, 地底の真理と, 十分に訓練された深度推定ネットワークから抽出した深度から, デフォーカスのぼかしを学習する。
我々の手法は、2つの一般的なデータセット上で11の最先端の手法より優れています。
論文 参考訳(メタデータ) (2020-07-16T04:58:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。