論文の概要: Single image deep defocus estimation and its applications
- arxiv url: http://arxiv.org/abs/2107.14443v1
- Date: Fri, 30 Jul 2021 06:18:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-02 18:31:07.344342
- Title: Single image deep defocus estimation and its applications
- Title(参考訳): 単一画像深部デフォーカス推定とその応用
- Authors: Fernando J. Galetto and Guang Deng
- Abstract要約: 画像パッチを20レベルの曖昧さの1つに分類するために、ディープニューラルネットワークをトレーニングします。
トレーニングされたモデルは、反復重み付きガイドフィルタを適用して改善するパッチのぼかしを決定するために使用される。
その結果、デフォーカスマップは各ピクセルのぼやけた度合いの情報を運ぶ。
- 参考スコア(独自算出の注目度): 82.93345261434943
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The depth information is useful in many image processing applications.
However, since taking a picture is a process of projection of a 3D scene onto a
2D imaging sensor, the depth information is embedded in the image. Extracting
the depth information from the image is a challenging task. A guiding principle
is that the level of blurriness due to defocus is related to the distance
between the object and the focal plane. Based on this principle and the widely
used assumption that Gaussian blur is a good model for defocus blur, we
formulate the problem of estimating the spatially varying defocus blurriness as
a Gaussian blur classification problem. We solved the problem by training a
deep neural network to classify image patches into one of the 20 levels of
blurriness. We have created a dataset of more than 500000 image patches of size
32x32 which are used to train and test several well-known network models. We
find that MobileNetV2 is suitable for this application due to its low memory
requirement and high accuracy. The trained model is used to determine the patch
blurriness which is then refined by applying an iterative weighted guided
filter. The result is a defocus map that carries the information of the degree
of blurriness for each pixel. We compare the proposed method with
state-of-the-art techniques and we demonstrate its successful applications in
adaptive image enhancement, defocus magnification, and multi-focus image
fusion.
- Abstract(参考訳): 深度情報は、多くの画像処理アプリケーションで有用である。
しかし、撮影は2次元撮像センサに3次元シーンを投影する工程であるため、奥行き情報は画像に埋め込まれている。
画像から深度情報を抽出することは難しい作業である。
導出原理は、デフォーカスによるぼかしのレベルが物体と焦点面の間の距離と関連しているということである。
この原理と、ガウスのぼかしがデフォーカスのぼかしに良いモデルであるという仮定に基づいて、空間的に変化するデフォーカスのぼかしをガウスのぼかし分類問題として推定する問題を定式化する。
画像パッチを20段階のぼやけの1つに分類するために,深層ニューラルネットワークを訓練することでこの問題を解決した。
我々は、よく知られたネットワークモデルのトレーニングとテストに使用される、サイズ32x32の50万以上のイメージパッチのデータセットを作成しました。
メモリ要求が低く,精度が高いため,MobileNetV2 がこのアプリケーションに適していることがわかった。
トレーニングされたモデルは、反復重み付きガイドフィルタを適用して改善するパッチのぼかしを決定するために使用される。
その結果、各ピクセルのぼやけた程度の情報を運ぶデフォーカスマップとなる。
提案手法を最先端技術と比較し,適応型画像強調,デフォーカス拡大,マルチフォーカス画像融合に応用できることを実証した。
関連論文リスト
- Depth Estimation Based on 3D Gaussian Splatting Siamese Defocus [14.354405484663285]
本稿では,3次元幾何学における深さ推定のための3次元ガウススプラッティングとシームズネットワークに基づく自己教師型フレームワークを提案する。
提案したフレームワークは、人工的に合成されたデータセットと実際のぼやけたデータセットの両方で検証されている。
論文 参考訳(メタデータ) (2024-09-18T21:36:37Z) - Towards Real-World Focus Stacking with Deep Learning [97.34754533628322]
焦点ブラケットを用いた94個の高解像度原画像のバーストからなる新しいデータセットを提案する。
このデータセットは、現実世界のアプリケーションに十分な長さのバーストを処理できるフォーカススタックのための最初のディープラーニングアルゴリズムをトレーニングするために使用される。
論文 参考訳(メタデータ) (2023-11-29T17:49:33Z) - Learning Depth from Focus in the Wild [16.27391171541217]
単一焦点スタックからの畳み込みニューラルネットワークによる深度推定を提案する。
本手法では,画像アライメントにおいても,奥行きマップをエンドツーエンドで推定することができる。
提案するネットワークの一般化のために,商用カメラの特徴を現実的に再現するシミュレータを開発した。
論文 参考訳(メタデータ) (2022-07-20T05:23:29Z) - Precise Point Spread Function Estimation [6.076995573805468]
我々はデフォーカス過程を記述するために,カメラの点展開関数の正確な数学的モデルを開発する。
標準平面および実物体に関する実験により,提案アルゴリズムがデフォーカス過程を正確に記述できることが示されている。
論文 参考訳(メタデータ) (2022-03-06T12:43:27Z) - VPFNet: Improving 3D Object Detection with Virtual Point based LiDAR and
Stereo Data Fusion [62.24001258298076]
VPFNetは、ポイントクラウドとイメージデータを仮想のポイントで巧みに調整し集約する新しいアーキテクチャである。
当社のVPFNetは,KITTIテストセットで83.21%の中等度3D AP,91.86%中等度BEV APを達成し,2021年5月21日以来の1位となった。
論文 参考訳(メタデータ) (2021-11-29T08:51:20Z) - Facial Depth and Normal Estimation using Single Dual-Pixel Camera [81.02680586859105]
DP指向のDepth/Normalネットワークを導入し,3次元顔形状を再構成する。
これは、メートル法スケールでの深度マップと表面正規を含む、対応する地上3次元モデルを含んでいる。
近年のDPベース深度/正規推定法で最先端の性能を実現している。
論文 参考訳(メタデータ) (2021-11-25T05:59:27Z) - Robust Consistent Video Depth Estimation [65.53308117778361]
本稿では,単眼映像からカメラのカメラポーズと密集した深度マップを推定するアルゴリズムを提案する。
本手法は,(1)低周波大規模アライメントのためのフレキシブルな変形-スプラインと(2)細部奥行き詳細の高周波アライメントのための幾何認識深度フィルタリングとを組み合わせた手法である。
従来の手法とは対照的に, カメラのポーズを入力として必要とせず, かなりの音量, 揺動, 動きのぼやき, 転がりシャッター変形を含む携帯のハンドヘルドキャプチャに頑健な再構成を実現する。
論文 参考訳(メタデータ) (2020-12-10T18:59:48Z) - Defocus Blur Detection via Depth Distillation [64.78779830554731]
初めてDBDに深度情報を導入します。
より詳しくは, 地底の真理と, 十分に訓練された深度推定ネットワークから抽出した深度から, デフォーカスのぼかしを学習する。
我々の手法は、2つの一般的なデータセット上で11の最先端の手法より優れています。
論文 参考訳(メタデータ) (2020-07-16T04:58:09Z) - Defocus Deblurring Using Dual-Pixel Data [41.201653787083735]
デフォーカスのぼかしは、広い開口部の使用により被写界深度が浅い画像に現れる。
最新のカメラで検出されるデュアルピクセル(DP)センサで利用可能なデータを活用する,効果的なデフォーカスデブロリング手法を提案する。
論文 参考訳(メタデータ) (2020-05-01T10:38:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。