論文の概要: Self-Supervised Spatially Variant PSF Estimation for Aberration-Aware
Depth-from-Defocus
- arxiv url: http://arxiv.org/abs/2402.18175v1
- Date: Wed, 28 Feb 2024 09:07:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-29 15:32:31.071442
- Title: Self-Supervised Spatially Variant PSF Estimation for Aberration-Aware
Depth-from-Defocus
- Title(参考訳): デフォーカスからの収差を考慮した自己監督型空間変動型PSF推定
- Authors: Zhuofeng Wu, Yusuke Monno, and Masatoshi Okutomi
- Abstract要約: 収差認識に基づくデフォーカスからの深度学習(DfD)のための新しい自己教師型学習法を提案する。
PSF推定では、回転対称なPSFを仮定し、極座標系を導入する。
また、実際のDfDの状況で発生する集中呼吸現象にも対処する。
- 参考スコア(独自算出の注目度): 14.383129822833155
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: In this paper, we address the task of aberration-aware depth-from-defocus
(DfD), which takes account of spatially variant point spread functions (PSFs)
of a real camera. To effectively obtain the spatially variant PSFs of a real
camera without requiring any ground-truth PSFs, we propose a novel
self-supervised learning method that leverages the pair of real sharp and
blurred images, which can be easily captured by changing the aperture setting
of the camera. In our PSF estimation, we assume rotationally symmetric PSFs and
introduce the polar coordinate system to more accurately learn the PSF
estimation network. We also handle the focus breathing phenomenon that occurs
in real DfD situations. Experimental results on synthetic and real data
demonstrate the effectiveness of our method regarding both the PSF estimation
and the depth estimation.
- Abstract(参考訳): 本稿では,実カメラの空間変化点拡散関数(PSF)を考慮した収差認識深度デフォーカス(DfD)の課題に対処する。
地上psfを必要とせず、実カメラの空間的変種psfを効果的に得るため、カメラの開口設定を変更して簡単に撮影できる実シャープ画像とぼやけた画像の対を利用した、新しい自己教師付き学習法を提案する。
PSF推定では、回転対称PSFを仮定し、PSF推定ネットワークをより正確に学習するための極座標系を導入する。
また,現実のdfd状況で発生するフォーカス呼吸現象についても扱う。
合成データと実データを用いた実験結果から,PSF推定と深度推定の両方に関して,本手法の有効性が示された。
関連論文リスト
- Single Image Depth Prediction Made Better: A Multivariate Gaussian Take [163.14849753700682]
本稿では,画素ごとの深度を連続的にモデル化する手法を提案する。
提案手法の精度(MG)は,KITTI深度予測ベンチマークリーダーボードの上位に位置する。
論文 参考訳(メタデータ) (2023-03-31T16:01:03Z) - Fully Self-Supervised Depth Estimation from Defocus Clue [79.63579768496159]
スパース焦点スタックから深度を純粋に推定する自己教師型フレームワークを提案する。
筆者らのフレームワークは,深度とAIF画像の接地構造の必要性を回避し,より優れた予測を得られることを示す。
論文 参考訳(メタデータ) (2023-03-19T19:59:48Z) - Learning Single Image Defocus Deblurring with Misaligned Training Pairs [80.13320797431487]
単一画像デフォーカスデブロリングのための連成デブロアリングおよびリブロアリング学習フレームワークを提案する。
我々のフレームワークは、定量的メトリクスと視覚的品質の両方の観点から、デフォーカスデブロワーリングネットワークを向上するために適用することができる。
論文 参考訳(メタデータ) (2022-11-26T07:36:33Z) - Weakly-Supervised Optical Flow Estimation for Time-of-Flight [11.496094830445054]
再構成深度に直接光フローネットワークを監視できるトレーニングアルゴリズムを提案する。
本手法により,iToF深度画像における生のiToF測定値の整列と運動成果物の補償を可能にする。
論文 参考訳(メタデータ) (2022-10-11T09:47:23Z) - End-to-end Learning for Joint Depth and Image Reconstruction from
Diffracted Rotation [10.896567381206715]
回折回転から深度を学習する新しいエンド・ツー・エンド学習手法を提案する。
提案手法は, 単分子深度推定のタスクにおいて既存の手法よりもはるかに少ない複雑なモデルと少ないトレーニングデータを必要とする。
論文 参考訳(メタデータ) (2022-04-14T16:14:37Z) - Deep Depth from Focal Stack with Defocus Model for Camera-Setting
Invariance [19.460887007137607]
シーン深度を推定するための入力として焦点スタックを利用する,フォーカス/デフォーカス(DFF)からの学習に基づく深度を提案する。
提案手法は, 合成ドメインギャップに対して頑健であり, 最先端の性能を示す。
論文 参考訳(メタデータ) (2022-02-26T04:21:08Z) - Wild ToFu: Improving Range and Quality of Indirect Time-of-Flight Depth
with RGB Fusion in Challenging Environments [56.306567220448684]
本稿では,ノイズの多い生のI-ToF信号とRGB画像を用いた学習に基づくエンド・ツー・エンドの深度予測ネットワークを提案する。
最終深度マップでは,ベースラインアプローチと比較して40%以上のRMSE改善が見られた。
論文 参考訳(メタデータ) (2021-12-07T15:04:14Z) - Universal and Flexible Optical Aberration Correction Using Deep-Prior
Based Deconvolution [51.274657266928315]
そこで本研究では,収差画像とpsfマップを入力とし,レンズ固有深層プリエントを組み込んだ潜在高品質版を生成する,psf対応プラグイン・アンド・プレイ深層ネットワークを提案する。
具体的には、多彩なレンズの集合からベースモデルを事前訓練し、パラメータを迅速に精製して特定のレンズに適応させる。
論文 参考訳(メタデータ) (2021-04-07T12:00:38Z) - A learning-based view extrapolation method for axial super-resolution [52.748944517480155]
軸光界分解能は、再焦点によって異なる深さで特徴を区別する能力を指します。
せん断エピポーラ平面画像の軸体積から新しい視点を推定する学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-11T07:22:13Z) - Point Spread Function Estimation for Wide Field Small Aperture
Telescopes with Deep Neural Networks and Calibration Data [11.909250072362264]
点拡散関数 (PSF) は望遠鏡の状態を反映する。
視界全体の任意の位置におけるPSFの推定は、光学系によって誘導される収差が非常に複雑であるため困難である。
我々は、さらにディープニューラルネットワーク(DNN)に基づくPSFモデリング法を開発し、そのPSF推定への応用を示す。
論文 参考訳(メタデータ) (2020-11-20T07:26:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。