論文の概要: Precise Point Spread Function Estimation
- arxiv url: http://arxiv.org/abs/2203.02953v1
- Date: Sun, 6 Mar 2022 12:43:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-09 06:51:09.398567
- Title: Precise Point Spread Function Estimation
- Title(参考訳): 精密点拡散関数の推定
- Authors: Renzhi He, Yan Zhuang, Boya Fu, Fei Liu
- Abstract要約: 我々はデフォーカス過程を記述するために,カメラの点展開関数の正確な数学的モデルを開発する。
標準平面および実物体に関する実験により,提案アルゴリズムがデフォーカス過程を正確に記述できることが示されている。
- 参考スコア(独自算出の注目度): 6.076995573805468
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Point spread function (PSF) plays a crucial role in many fields, such as
shape from focus/defocus, depth estimation, and imaging process in fluorescence
microscopy. However, the mathematical model of the defocus process is still
unclear because several variables in the point spread function are hard to
measure accurately, such as the f-number of cameras, the physical size of a
pixel, the focus depth, etc. In this work, we develop a precise mathematical
model of the camera's point spread function to describe the defocus process. We
first derive the mathematical algorithm for the PSF and extract two parameters
A and e. A is the composite of camera's f-number, pixel-size, output scale, and
scaling factor of the circle of confusion; e is the deviation of the focus
depth. We design a novel metric based on the defocus histogram to evaluate the
difference between the simulated focused image and the actual focused image to
obtain optimal A and e. We also construct a hardware system consisting of a
focusing system and a structured light system to acquire the all-in-focus
image, the focused image with corresponding focus depth, and the depth map in
the same view. The three types of images, as a dataset, are used to obtain the
precise PSF. Our experiments on standard planes and actual objects show that
the proposed algorithm can accurately describe the defocus process. The
accuracy of our algorithm is further proved by evaluating the difference among
the actual focused images, the focused image generated by our algorithm, the
focused image generated by others. The results show that the loss of our
algorithm is 40% less than others on average. The dataset, code, and model are
available on GitHub: https://github.com/cubhe/
precise-point-spread-function-estimation.
- Abstract(参考訳): 点拡散関数 (psf) は, 焦点・焦点からの形状, 深さ推定, 蛍光顕微鏡におけるイメージングプロセスなど多くの分野において重要な役割を担っている。
しかし、点拡散関数のいくつかの変数は、カメラのf数、ピクセルの物理サイズ、焦点深度などを正確に測定することが難しいため、デフォーカス過程の数学的モデルはまだ不明である。
本研究では,デフォーカス過程を記述するために,カメラの点展開関数の正確な数学的モデルを開発する。
まず、PSFの数学的アルゴリズムを導出し、2つのパラメータAとeを抽出する。
Aは、カメラのfナンバー、ピクセルサイズ、出力スケール、混乱の円のスケーリング係数の合成であり、eは焦点深さのずれである。
本研究では,デフォーカスヒストグラムに基づく新しいメトリクスを設計し,シミュレーションされた焦点画像と実際の焦点画像との差を評価し,最適なAとeを得る。
また、フォーカスシステムと構造化光システムから構成されるハードウェアシステムを構築し、フォーカス内画像、フォーカス深度に応じたフォーカス画像、同じ視野における深度マップを取得する。
3種類の画像はデータセットとして、正確なPSFを得るために使用される。
標準平面および実物体に関する実験により,提案アルゴリズムはデフォーカス過程を正確に記述できることを示す。
さらに,本アルゴリズムの精度は,実際の焦点画像,アルゴリズムが生成する焦点画像,他者が生成する焦点画像の差を評価することによって検証される。
その結果,アルゴリズムの損失は他のアルゴリズムよりも40%少ないことがわかった。
データセット、コード、モデルはgithubで入手できる。 https://github.com/cubhe/ accurate-point-spread-function-estimation。
関連論文リスト
- Towards Real-World Focus Stacking with Deep Learning [97.34754533628322]
焦点ブラケットを用いた94個の高解像度原画像のバーストからなる新しいデータセットを提案する。
このデータセットは、現実世界のアプリケーションに十分な長さのバーストを処理できるフォーカススタックのための最初のディープラーニングアルゴリズムをトレーニングするために使用される。
論文 参考訳(メタデータ) (2023-11-29T17:49:33Z) - Fully Self-Supervised Depth Estimation from Defocus Clue [79.63579768496159]
スパース焦点スタックから深度を純粋に推定する自己教師型フレームワークを提案する。
筆者らのフレームワークは,深度とAIF画像の接地構造の必要性を回避し,より優れた予測を得られることを示す。
論文 参考訳(メタデータ) (2023-03-19T19:59:48Z) - Deep Depth from Focus with Differential Focus Volume [17.505649653615123]
焦点スタック内の最良焦点画素を抽出し,焦点推定から深度を推定するための畳み込みニューラルネットワーク(CNN)を提案する。
ネットワークの重要な革新は、新しいディープディファレンシャルフォーカスボリューム(DFV)である。
論文 参考訳(メタデータ) (2021-12-03T04:49:51Z) - Single image deep defocus estimation and its applications [82.93345261434943]
画像パッチを20レベルの曖昧さの1つに分類するために、ディープニューラルネットワークをトレーニングします。
トレーニングされたモデルは、反復重み付きガイドフィルタを適用して改善するパッチのぼかしを決定するために使用される。
その結果、デフォーカスマップは各ピクセルのぼやけた度合いの情報を運ぶ。
論文 参考訳(メタデータ) (2021-07-30T06:18:16Z) - Real-Time, Deep Synthetic Aperture Sonar (SAS) Autofocus [34.77467193499518]
合成開口ソナー(sas)は、送信/受信波形の正確な飛行時間計測を必要とする。
これを解決するために、画像再構成後の後処理ステップとして、Emphautofocusアルゴリズムを用いて、画像フォーカスを改善する。
これらの限界を克服し、データ駆動方式で重み付け関数を暗黙的に学習するための深層学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-18T15:16:29Z) - A learning-based view extrapolation method for axial super-resolution [52.748944517480155]
軸光界分解能は、再焦点によって異なる深さで特徴を区別する能力を指します。
せん断エピポーラ平面画像の軸体積から新しい視点を推定する学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-11T07:22:13Z) - Deep Autofocus for Synthetic Aperture Sonar [28.306713374371814]
本稿では,機械学習,特にディープラーニングがオートフォーカス問題に対処する可能性を示す。
我々は、Deep Autofocusと呼ばれるディープネットワークを用いて、自己教師型位相誤差推定タスクとして問題を定式化する。
以上の結果から,Deep Autofocusは,ベンチマーク反復手法に劣らず,計算コストが大幅に低い画像を生成することができることを示した。
論文 参考訳(メタデータ) (2020-10-29T15:31:15Z) - Defocus Blur Detection via Depth Distillation [64.78779830554731]
初めてDBDに深度情報を導入します。
より詳しくは, 地底の真理と, 十分に訓練された深度推定ネットワークから抽出した深度から, デフォーカスのぼかしを学習する。
我々の手法は、2つの一般的なデータセット上で11の最先端の手法より優れています。
論文 参考訳(メタデータ) (2020-07-16T04:58:09Z) - Single Image Depth Estimation Trained via Depth from Defocus Cues [105.67073923825842]
単一のRGB画像から深度を推定することはコンピュータビジョンの基本的な課題である。
この作業では、異なる視点ではなく、フォーカスキューからの奥行きに依存しています。
我々は,KITTIとMake3Dデータセットの教師あり手法と同等な結果を提示し,教師なし学習手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-01-14T20:22:54Z) - DeepFocus: a Few-Shot Microscope Slide Auto-Focus using a Sample
Invariant CNN-based Sharpness Function [6.09170287691728]
オートフォーカス(AF)法は、例えばタイムラプスを取得するために生体顕微鏡で広く用いられている。
現在のハードウェアベースの手法では、顕微鏡と画像ベースのアルゴリズムを変更する必要がある。
我々はMicro-Managerプラグインとして実装したAFメソッドであるDeepFocusを提案する。
論文 参考訳(メタデータ) (2020-01-02T23:29:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。