論文の概要: Learning Wavefront Coding for Extended Depth of Field Imaging
- arxiv url: http://arxiv.org/abs/1912.13423v2
- Date: Mon, 25 May 2020 18:59:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-16 21:27:15.808964
- Title: Learning Wavefront Coding for Extended Depth of Field Imaging
- Title(参考訳): 視野深度拡大のための学習ウェーブフロント符号化
- Authors: Ugur Akpinar, Erdem Sahin, Monjurul Meem, Rajesh Menon, Atanas Gotchev
- Abstract要約: 拡張深度画像(EDoF)は難題である。
回折光学素子による波面符号化を応用したEDoFの計算画像化手法を提案する。
深部3Dシーンやブロードバンド画像など,さまざまなシナリオにおいて,最小限の成果が得られた。
- 参考スコア(独自算出の注目度): 4.199844472131922
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Depth of field is an important factor of imaging systems that highly affects
the quality of the acquired spatial information. Extended depth of field (EDoF)
imaging is a challenging ill-posed problem and has been extensively addressed
in the literature. We propose a computational imaging approach for EDoF, where
we employ wavefront coding via a diffractive optical element (DOE) and we
achieve deblurring through a convolutional neural network. Thanks to the
end-to-end differentiable modeling of optical image formation and computational
post-processing, we jointly optimize the optical design, i.e., DOE, and the
deblurring through standard gradient descent methods. Based on the properties
of the underlying refractive lens and the desired EDoF range, we provide an
analytical expression for the search space of the DOE, which is instrumental in
the convergence of the end-to-end network. We achieve superior EDoF imaging
performance compared to the state of the art, where we demonstrate results with
minimal artifacts in various scenarios, including deep 3D scenes and broadband
imaging.
- Abstract(参考訳): 被写界深度は、取得した空間情報の質に高い影響を与える画像システムの重要な要素である。
extended depth of field (edof) イメージングは困難な不適切な問題であり、文献で広く取り上げられている。
本稿では, 回折光学素子(DOE)による波面符号化を応用し, 畳み込みニューラルネットワークによるデブロワーリングを実現するEDoFの計算画像化手法を提案する。
光画像形成と計算後処理のエンド・ツー・エンドの微分可能モデリングにより,光学設計,すなわちDOE,および標準勾配降下法による劣化を協調的に最適化する。
基礎となる屈折レンズの特性と所望のEDoF範囲に基づいて、エンド・ツー・エンド・ネットワークの収束に寄与するDOEの探索空間の解析式を提供する。
我々は,深部3Dシーンやブロードバンド画像など,さまざまなシナリオにおいて,最小限のアーティファクトによる結果を示す技術と比較して,優れたEDoF撮像性能を実現する。
関連論文リスト
- Phase Guided Light Field for Spatial-Depth High Resolution 3D Imaging [39.55475797914038]
3Dイメージングでは、光界カメラは通常単発で、空間解像度と深度精度の低下に悩まされる。
そこで本研究では,オフザシェルフ光場カメラの空間分解能と深度を両立させる位相誘導光場アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-11-17T15:08:15Z) - Enhancing Low-light Light Field Images with A Deep Compensation
Unfolding Network [52.77569396659629]
本稿では,低光環境下で撮像した光場(LF)画像の復元に,DCUNet(Deep compensation network openfolding)を提案する。
このフレームワークは、中間拡張結果を使用して照明マップを推定し、展開プロセスで新しい拡張結果を生成する。
本稿では,LF画像の特徴を適切に活用するために,擬似明示的特徴相互作用モジュールを提案する。
論文 参考訳(メタデータ) (2023-08-10T07:53:06Z) - D$^\text{2}$UF: Deep Coded Aperture Design and Unrolling Algorithm for
Compressive Spectral Image Fusion [22.0246327137227]
本稿では,低空間分解能符号化開口スペクトル撮像器 (CASSI) アーキテクチャと高空間分解能マルチスペクトルカラーフィルタアレイ (MCFA) システムの圧縮測定の融合について述べる。
本稿では,従来のCSIFと異なり,エンド・ツー・エンド(E2E)方式でセンサアーキテクチャと再構成ネットワークを協調的に最適化する手法を提案する。
論文 参考訳(メタデータ) (2022-05-24T15:39:34Z) - End-to-end Learning for Joint Depth and Image Reconstruction from
Diffracted Rotation [10.896567381206715]
回折回転から深度を学習する新しいエンド・ツー・エンド学習手法を提案する。
提案手法は, 単分子深度推定のタスクにおいて既存の手法よりもはるかに少ない複雑なモデルと少ないトレーニングデータを必要とする。
論文 参考訳(メタデータ) (2022-04-14T16:14:37Z) - Adaptive Weighted Guided Image Filtering for Depth Enhancement in
Shape-From-Focus [28.82811159799952]
フォーカスからの形状(SFF)技術は、多焦点画像のシーケンスから深度エッジや微細構造の詳細を保存できない。
適応重み付きガイド画像フィルタリング(AWGIF)に基づくSFFのための新しい深度強調アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-01-18T08:52:26Z) - Wild ToFu: Improving Range and Quality of Indirect Time-of-Flight Depth
with RGB Fusion in Challenging Environments [56.306567220448684]
本稿では,ノイズの多い生のI-ToF信号とRGB画像を用いた学習に基づくエンド・ツー・エンドの深度予測ネットワークを提案する。
最終深度マップでは,ベースラインアプローチと比較して40%以上のRMSE改善が見られた。
論文 参考訳(メタデータ) (2021-12-07T15:04:14Z) - Universal and Flexible Optical Aberration Correction Using Deep-Prior
Based Deconvolution [51.274657266928315]
そこで本研究では,収差画像とpsfマップを入力とし,レンズ固有深層プリエントを組み込んだ潜在高品質版を生成する,psf対応プラグイン・アンド・プレイ深層ネットワークを提案する。
具体的には、多彩なレンズの集合からベースモデルを事前訓練し、パラメータを迅速に精製して特定のレンズに適応させる。
論文 参考訳(メタデータ) (2021-04-07T12:00:38Z) - Light Field Reconstruction Using Convolutional Network on EPI and
Extended Applications [78.63280020581662]
スパースビューからの光場再構成のための新しい畳み込みニューラルネットワーク(CNN)ベースのフレームワークを開発した。
最先端のアルゴリズムと比較して,提案フレームワークの高性能と堅牢性を実証する。
論文 参考訳(メタデータ) (2021-03-24T08:16:32Z) - A learning-based view extrapolation method for axial super-resolution [52.748944517480155]
軸光界分解能は、再焦点によって異なる深さで特徴を区別する能力を指します。
せん断エピポーラ平面画像の軸体積から新しい視点を推定する学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-11T07:22:13Z) - Light Field Reconstruction via Deep Adaptive Fusion of Hybrid Lenses [67.01164492518481]
本稿では,ハイブリットレンズを用いた高分解能光場(LF)画像の再構成問題について検討する。
本稿では,入力の特徴を包括的に活用できる新しいエンドツーエンド学習手法を提案する。
我々のフレームワークは、高解像度なLFデータ取得のコストを削減し、LFデータストレージと送信の恩恵を受ける可能性がある。
論文 参考訳(メタデータ) (2021-02-14T06:44:47Z) - Point Spread Function Estimation for Wide Field Small Aperture
Telescopes with Deep Neural Networks and Calibration Data [11.909250072362264]
点拡散関数 (PSF) は望遠鏡の状態を反映する。
視界全体の任意の位置におけるPSFの推定は、光学系によって誘導される収差が非常に複雑であるため困難である。
我々は、さらにディープニューラルネットワーク(DNN)に基づくPSFモデリング法を開発し、そのPSF推定への応用を示す。
論文 参考訳(メタデータ) (2020-11-20T07:26:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。