論文の概要: Self-Supervised Spatially Variant PSF Estimation for Aberration-Aware
Depth-from-Defocus
- arxiv url: http://arxiv.org/abs/2402.18175v1
- Date: Wed, 28 Feb 2024 09:07:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-29 15:32:31.071442
- Title: Self-Supervised Spatially Variant PSF Estimation for Aberration-Aware
Depth-from-Defocus
- Title(参考訳): デフォーカスからの収差を考慮した自己監督型空間変動型PSF推定
- Authors: Zhuofeng Wu, Yusuke Monno, and Masatoshi Okutomi
- Abstract要約: 収差認識に基づくデフォーカスからの深度学習(DfD)のための新しい自己教師型学習法を提案する。
PSF推定では、回転対称なPSFを仮定し、極座標系を導入する。
また、実際のDfDの状況で発生する集中呼吸現象にも対処する。
- 参考スコア(独自算出の注目度): 14.383129822833155
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: In this paper, we address the task of aberration-aware depth-from-defocus
(DfD), which takes account of spatially variant point spread functions (PSFs)
of a real camera. To effectively obtain the spatially variant PSFs of a real
camera without requiring any ground-truth PSFs, we propose a novel
self-supervised learning method that leverages the pair of real sharp and
blurred images, which can be easily captured by changing the aperture setting
of the camera. In our PSF estimation, we assume rotationally symmetric PSFs and
introduce the polar coordinate system to more accurately learn the PSF
estimation network. We also handle the focus breathing phenomenon that occurs
in real DfD situations. Experimental results on synthetic and real data
demonstrate the effectiveness of our method regarding both the PSF estimation
and the depth estimation.
- Abstract(参考訳): 本稿では,実カメラの空間変化点拡散関数(PSF)を考慮した収差認識深度デフォーカス(DfD)の課題に対処する。
地上psfを必要とせず、実カメラの空間的変種psfを効果的に得るため、カメラの開口設定を変更して簡単に撮影できる実シャープ画像とぼやけた画像の対を利用した、新しい自己教師付き学習法を提案する。
PSF推定では、回転対称PSFを仮定し、PSF推定ネットワークをより正確に学習するための極座標系を導入する。
また,現実のdfd状況で発生するフォーカス呼吸現象についても扱う。
合成データと実データを用いた実験結果から,PSF推定と深度推定の両方に関して,本手法の有効性が示された。
関連論文リスト
- FAFA: Frequency-Aware Flow-Aided Self-Supervision for Underwater Object Pose Estimation [65.01601309903971]
無人水中車両(UUV)の6次元ポーズ推定のための周波数認識フロー支援フレームワークであるFAFAを紹介する。
我々のフレームワークは、3DモデルとRGB画像のみに依存しており、実際のポーズアノテーションや奥行きのような非モダリティデータの必要性を軽減しています。
本研究では,一般的な水中オブジェクトポーズベンチマークにおけるFAFAの有効性を評価し,最先端手法と比較して顕著な性能向上を示した。
論文 参考訳(メタデータ) (2024-09-25T03:54:01Z) - Towards Single-Lens Controllable Depth-of-Field Imaging via All-in-Focus Aberration Correction and Monocular Depth Estimation [19.312034704019634]
コントロール可能なDepth-of-Field(DoF)イメージングは、重くて高価なハイエンドレンズをベースとした素晴らしい視覚効果を一般的に生み出す。
この研究は、MOS(Minimalist Optical Systems)の2つの大きな限界に焦点を合わせ、計算方法でシングルレンズ制御可能なDoFイメージングを実現する。
All-in-Focus (AiF) 収差補正と単眼深度推定を併用したDepth-aware Controllable DoF Imaging (DCDI) フレームワークを提案する。
Omni-Lens-Fieldにより推定される深度マップ、復元画像、深度対応PSFマップにより、シングルレンズ制御可能なDoFイメージングが可能となる。
論文 参考訳(メタデータ) (2024-09-15T14:52:16Z) - Robust Depth Enhancement via Polarization Prompt Fusion Tuning [112.88371907047396]
様々な深度センサによる不正確な深度測定を改善するために偏光イメージングを利用するフレームワークを提案する。
まず、偏光データとセンサ深度マップから高密度で完全な深度マップを推定するために、ニューラルネットワークを訓練した学習ベースの戦略を採用する。
大規模データセット上で事前学習したRGBモデルを有効に活用するためのPPFT(Polarization Prompt Fusion Tuning)戦略を提案する。
論文 参考訳(メタデータ) (2024-04-05T17:55:33Z) - Fully Self-Supervised Depth Estimation from Defocus Clue [79.63579768496159]
スパース焦点スタックから深度を純粋に推定する自己教師型フレームワークを提案する。
筆者らのフレームワークは,深度とAIF画像の接地構造の必要性を回避し,より優れた予測を得られることを示す。
論文 参考訳(メタデータ) (2023-03-19T19:59:48Z) - End-to-end Learning for Joint Depth and Image Reconstruction from
Diffracted Rotation [10.896567381206715]
回折回転から深度を学習する新しいエンド・ツー・エンド学習手法を提案する。
提案手法は, 単分子深度推定のタスクにおいて既存の手法よりもはるかに少ない複雑なモデルと少ないトレーニングデータを必要とする。
論文 参考訳(メタデータ) (2022-04-14T16:14:37Z) - Deep Depth from Focal Stack with Defocus Model for Camera-Setting
Invariance [19.460887007137607]
シーン深度を推定するための入力として焦点スタックを利用する,フォーカス/デフォーカス(DFF)からの学習に基づく深度を提案する。
提案手法は, 合成ドメインギャップに対して頑健であり, 最先端の性能を示す。
論文 参考訳(メタデータ) (2022-02-26T04:21:08Z) - Wild ToFu: Improving Range and Quality of Indirect Time-of-Flight Depth
with RGB Fusion in Challenging Environments [56.306567220448684]
本稿では,ノイズの多い生のI-ToF信号とRGB画像を用いた学習に基づくエンド・ツー・エンドの深度予測ネットワークを提案する。
最終深度マップでは,ベースラインアプローチと比較して40%以上のRMSE改善が見られた。
論文 参考訳(メタデータ) (2021-12-07T15:04:14Z) - Universal and Flexible Optical Aberration Correction Using Deep-Prior
Based Deconvolution [51.274657266928315]
そこで本研究では,収差画像とpsfマップを入力とし,レンズ固有深層プリエントを組み込んだ潜在高品質版を生成する,psf対応プラグイン・アンド・プレイ深層ネットワークを提案する。
具体的には、多彩なレンズの集合からベースモデルを事前訓練し、パラメータを迅速に精製して特定のレンズに適応させる。
論文 参考訳(メタデータ) (2021-04-07T12:00:38Z) - A learning-based view extrapolation method for axial super-resolution [52.748944517480155]
軸光界分解能は、再焦点によって異なる深さで特徴を区別する能力を指します。
せん断エピポーラ平面画像の軸体積から新しい視点を推定する学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-11T07:22:13Z) - Point Spread Function Estimation for Wide Field Small Aperture
Telescopes with Deep Neural Networks and Calibration Data [11.909250072362264]
点拡散関数 (PSF) は望遠鏡の状態を反映する。
視界全体の任意の位置におけるPSFの推定は、光学系によって誘導される収差が非常に複雑であるため困難である。
我々は、さらにディープニューラルネットワーク(DNN)に基づくPSFモデリング法を開発し、そのPSF推定への応用を示す。
論文 参考訳(メタデータ) (2020-11-20T07:26:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。