論文の概要: Learning Depth from Focus in the Wild
- arxiv url: http://arxiv.org/abs/2207.09658v1
- Date: Wed, 20 Jul 2022 05:23:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-21 13:31:04.160203
- Title: Learning Depth from Focus in the Wild
- Title(参考訳): 野生の焦点から深度を学ぶ
- Authors: Changyeon Won and Hae-Gon Jeon
- Abstract要約: 単一焦点スタックからの畳み込みニューラルネットワークによる深度推定を提案する。
本手法では,画像アライメントにおいても,奥行きマップをエンドツーエンドで推定することができる。
提案するネットワークの一般化のために,商用カメラの特徴を現実的に再現するシミュレータを開発した。
- 参考スコア(独自算出の注目度): 16.27391171541217
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For better photography, most recent commercial cameras including smartphones
have either adopted large-aperture lens to collect more light or used a burst
mode to take multiple images within short times. These interesting features
lead us to examine depth from focus/defocus.
In this work, we present a convolutional neural network-based depth
estimation from single focal stacks. Our method differs from relevant
state-of-the-art works with three unique features. First, our method allows
depth maps to be inferred in an end-to-end manner even with image alignment.
Second, we propose a sharp region detection module to reduce blur ambiguities
in subtle focus changes and weakly texture-less regions. Third, we design an
effective downsampling module to ease flows of focal information in feature
extractions. In addition, for the generalization of the proposed network, we
develop a simulator to realistically reproduce the features of commercial
cameras, such as changes in field of view, focal length and principal points.
By effectively incorporating these three unique features, our network
achieves the top rank in the DDFF 12-Scene benchmark on most metrics. We also
demonstrate the effectiveness of the proposed method on various quantitative
evaluations and real-world images taken from various off-the-shelf cameras
compared with state-of-the-art methods. Our source code is publicly available
at https://github.com/wcy199705/DfFintheWild.
- Abstract(参考訳): より優れた写真撮影のために、スマートフォンを含む最近の商用カメラでは、より多くの光を集めるために大きな開口レンズを採用したり、バーストモードで複数の画像を短時間で撮影したりしている。
これらの興味深い機能は、フォーカス/デフォーカスの深さを調べることにつながります。
本研究では,単一焦点スタックからの畳み込みニューラルネットワークによる深度推定を提案する。
本手法は,3つの特徴を有する関連する最先端作品と異なる。
まず,画像アライメントにおいても深度マップをエンドツーエンドで推定することを可能にする。
第2に,微妙な焦点変化とテクスチャレス領域の曖昧さを軽減するためのシャープな領域検出モジュールを提案する。
第3に,特徴抽出における焦点情報のフローを容易にする効果的なダウンサンプリングモジュールを設計した。
また,提案するネットワークの一般化のために,視野の変化,焦点長,主点などの商業用カメラの特徴を現実的に再現するシミュレータを開発した。
これら3つの特徴を効果的に組み込むことで,我々のネットワークはDDFF 12-Sceneベンチマークにおいて,ほとんどの指標で上位に到達した。
また,本手法が各種オフザシェルフカメラから得られた様々な定量的評価と実世界の画像に対して,最先端の手法と比較して有効であることを示す。
ソースコードはhttps://github.com/wcy199705/dffinthewildで公開しています。
関連論文リスト
- Towards Real-World Focus Stacking with Deep Learning [97.34754533628322]
焦点ブラケットを用いた94個の高解像度原画像のバーストからなる新しいデータセットを提案する。
このデータセットは、現実世界のアプリケーションに十分な長さのバーストを処理できるフォーカススタックのための最初のディープラーニングアルゴリズムをトレーニングするために使用される。
論文 参考訳(メタデータ) (2023-11-29T17:49:33Z) - Blur aware metric depth estimation with multi-focus plenoptic cameras [8.508198765617196]
多焦点レンズカメラからの原画像のみを用いた新しい距離深度推定アルゴリズムを提案する。
提案手法は、焦点距離の異なる複数のマイクロレンズを用いるマルチフォーカス構成に特に適している。
論文 参考訳(メタデータ) (2023-08-08T13:38:50Z) - FS-Depth: Focal-and-Scale Depth Estimation from a Single Image in Unseen
Indoor Scene [57.26600120397529]
実際の(見えない)屋内シーンの単一の画像から絶対深度マップを予測するのには、長年不適切な問題だった。
本研究では,未確認屋内シーンの単一画像から絶対深度マップを正確に学習するための焦点・スケール深度推定モデルを開発した。
論文 参考訳(メタデータ) (2023-07-27T04:49:36Z) - Multi-task Learning for Monocular Depth and Defocus Estimations with
Real Images [3.682618267671887]
既存の手法の多くは、深度推定とデフォーカス推定を2つの別々のタスクとして扱い、それら間の強いつながりを無視している。
本稿では、2つのデコーダを持つエンコーダからなるマルチタスク学習ネットワークを提案し、単一の焦点画像から深度とデフォーカスマップを推定する。
我々の深度とデフォーカス推定は、他の最先端アルゴリズムよりも大幅に性能が向上する。
論文 参考訳(メタデータ) (2022-08-21T08:59:56Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - Learning to Deblur using Light Field Generated and Real Defocus Images [4.926805108788465]
デフォーカス・デブロワーリングは、デフォーカス・ボケの性質が空間的に変化するため、困難な作業である。
本稿では,光の強度を活用し,光源の欠点を克服する新しいディープデフォーカス・デブロアリング・ネットワークを提案する。
論文 参考訳(メタデータ) (2022-04-01T11:35:51Z) - Single image deep defocus estimation and its applications [82.93345261434943]
画像パッチを20レベルの曖昧さの1つに分類するために、ディープニューラルネットワークをトレーニングします。
トレーニングされたモデルは、反復重み付きガイドフィルタを適用して改善するパッチのぼかしを決定するために使用される。
その結果、デフォーカスマップは各ピクセルのぼやけた度合いの情報を運ぶ。
論文 参考訳(メタデータ) (2021-07-30T06:18:16Z) - Defocus Blur Detection via Depth Distillation [64.78779830554731]
初めてDBDに深度情報を導入します。
より詳しくは, 地底の真理と, 十分に訓練された深度推定ネットワークから抽出した深度から, デフォーカスのぼかしを学習する。
我々の手法は、2つの一般的なデータセット上で11の最先端の手法より優れています。
論文 参考訳(メタデータ) (2020-07-16T04:58:09Z) - Defocus Deblurring Using Dual-Pixel Data [41.201653787083735]
デフォーカスのぼかしは、広い開口部の使用により被写界深度が浅い画像に現れる。
最新のカメラで検出されるデュアルピクセル(DP)センサで利用可能なデータを活用する,効果的なデフォーカスデブロリング手法を提案する。
論文 参考訳(メタデータ) (2020-05-01T10:38:00Z) - Single Image Depth Estimation Trained via Depth from Defocus Cues [105.67073923825842]
単一のRGB画像から深度を推定することはコンピュータビジョンの基本的な課題である。
この作業では、異なる視点ではなく、フォーカスキューからの奥行きに依存しています。
我々は,KITTIとMake3Dデータセットの教師あり手法と同等な結果を提示し,教師なし学習手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-01-14T20:22:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。