論文の概要: DeepFocus: a Few-Shot Microscope Slide Auto-Focus using a Sample
Invariant CNN-based Sharpness Function
- arxiv url: http://arxiv.org/abs/2001.00667v1
- Date: Thu, 2 Jan 2020 23:29:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-16 04:40:46.675973
- Title: DeepFocus: a Few-Shot Microscope Slide Auto-Focus using a Sample
Invariant CNN-based Sharpness Function
- Title(参考訳): DeepFocus: サンプル不変CNN型シャープネス関数を用いた少数のショット顕微鏡スライドオートフォーカス
- Authors: Adrian Shajkofci, Michael Liebling
- Abstract要約: オートフォーカス(AF)法は、例えばタイムラプスを取得するために生体顕微鏡で広く用いられている。
現在のハードウェアベースの手法では、顕微鏡と画像ベースのアルゴリズムを変更する必要がある。
我々はMicro-Managerプラグインとして実装したAFメソッドであるDeepFocusを提案する。
- 参考スコア(独自算出の注目度): 6.09170287691728
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autofocus (AF) methods are extensively used in biomicroscopy, for example to
acquire timelapses, where the imaged objects tend to drift out of focus. AD
algorithms determine an optimal distance by which to move the sample back into
the focal plane. Current hardware-based methods require modifying the
microscope and image-based algorithms either rely on many images to converge to
the sharpest position or need training data and models specific to each
instrument and imaging configuration. Here we propose DeepFocus, an AF method
we implemented as a Micro-Manager plugin, and characterize its Convolutional
neural network-based sharpness function, which we observed to be depth
co-variant and sample-invariant. Sample invariance allows our AF algorithm to
converge to an optimal axial position within as few as three iterations using a
model trained once for use with a wide range of optical microscopes and a
single instrument-dependent calibration stack acquisition of a flat (but
arbitrary) textured object. From experiments carried out both on synthetic and
experimental data, we observed an average precision, given 3 measured images,
of 0.30 +- 0.16 micrometers with a 10x, NA 0.3 objective. We foresee that this
performance and low image number will help limit photodamage during
acquisitions with light-sensitive samples.
- Abstract(参考訳): オートフォーカス(af)法は生体顕微鏡で広く使われ、例えば撮影された物体が焦点から外れる時間経過を取得するために用いられる。
adアルゴリズムはサンプルを焦点平面に戻すための最適な距離を決定する。
現在のハードウェアベースの手法では、顕微鏡と画像に基づくアルゴリズムは、最も鋭い位置に収束するために多くの画像に依存するか、または各機器や画像の構成に特有のトレーニングデータとモデルを必要とする。
本稿では,マイクロManagerプラグインとして実装したAF手法であるDeepFocusを提案し,その畳み込みニューラルネットワークに基づくシャープネス関数を特徴付ける。
サンプル不変性により、我々のAFアルゴリズムは、幅広い光学顕微鏡で使用するために一度訓練されたモデルと、平らな(しかし任意の)テクスチャオブジェクトの単一の計器依存キャリブレーションスタック取得を用いて、最大3回以内の最適軸位置まで収束することができる。
合成データと実験データの両方で行った実験の結果, 平均精度は0.30×0.16マイクロメートル, 10x, NA 0.3の目的で測定された。
我々は、この性能と低画像数は、光感受性サンプルの取得時に光損傷を制限するのに役立つと予測している。
関連論文リスト
- InstantSplat: Unbounded Sparse-view Pose-free Gaussian Splatting in 40 Seconds [91.77050739918037]
スパース画像からの新しいビュー合成(NVS)は3次元コンピュータビジョンにおいて大きく進歩している。
これはStructure-from-Motion (SfM) を用いたカメラパラメータの正確な初期推定に依存する
本研究では,スパースビュー画像から堅牢なNVSを向上するための,新規で効率的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-29T17:29:58Z) - Towards Real-World Focus Stacking with Deep Learning [97.34754533628322]
焦点ブラケットを用いた94個の高解像度原画像のバーストからなる新しいデータセットを提案する。
このデータセットは、現実世界のアプリケーションに十分な長さのバーストを処理できるフォーカススタックのための最初のディープラーニングアルゴリズムをトレーニングするために使用される。
論文 参考訳(メタデータ) (2023-11-29T17:49:33Z) - Precise Point Spread Function Estimation [6.076995573805468]
我々はデフォーカス過程を記述するために,カメラの点展開関数の正確な数学的モデルを開発する。
標準平面および実物体に関する実験により,提案アルゴリズムがデフォーカス過程を正確に記述できることが示されている。
論文 参考訳(メタデータ) (2022-03-06T12:43:27Z) - Low dosage 3D volume fluorescence microscopy imaging using compressive
sensing [0.0]
本稿では, 圧縮センシングによる3Dボリュームの完全再構成を, 励起量の半分未満のSNRで行う方法を提案する。
ゼブラフィッシュ胚脊髄のRFP標識ニューロンの3次元体積を, 共焦点顕微鏡を用いて0.1umの軸方向サンプリングにより計測し, 本手法の実証を行った。
この研究で開発されたCSベースの手法は、2光子や光シート顕微鏡などの他の深部イメージングに容易に適用でき、サンプル光毒性の低減は重要な課題である。
論文 参考訳(メタデータ) (2022-01-03T18:44:50Z) - MC-Blur: A Comprehensive Benchmark for Image Deblurring [127.6301230023318]
ほとんどの実世界の画像では、ブラーは動きやデフォーカスなど様々な要因によって引き起こされる。
我々は,MC-Blurと呼ばれる大規模マルチライク画像デブロアリングデータセットを新たに構築する。
MC-Blurデータセットに基づいて,異なるシナリオにおけるSOTA法の比較を行う。
論文 参考訳(メタデータ) (2021-12-01T02:10:42Z) - Leveraging blur information for plenoptic camera calibration [6.0982543764998995]
本稿では,光学カメラ,特にマルチフォーカス構成のための新しいキャリブレーションアルゴリズムを提案する。
マルチフォーカス構成では、シーンの同じ部分がマイクロレンズ焦点長に応じて異なる量のぼやけを示す。
通常、最小限のぼやけたマイクロイメージしか使われない。
我々は,新たに導入されたBlur Aware Plenoptic機能を利用して,新しいカメラモデルにおけるデフォーカスのぼかしを明示的にモデル化することを提案する。
論文 参考訳(メタデータ) (2021-11-09T16:07:07Z) - Pixel-Perfect Structure-from-Motion with Featuremetric Refinement [96.73365545609191]
複数視点からの低レベル画像情報を直接アライメントすることで、動きからの2つの重要なステップを洗練する。
これにより、様々なキーポイント検出器のカメラポーズとシーン形状の精度が大幅に向上する。
本システムは,大規模な画像コレクションに容易にスケールできるので,クラウドソースによる大規模なローカライゼーションを実現することができる。
論文 参考訳(メタデータ) (2021-08-18T17:58:55Z) - Single image deep defocus estimation and its applications [82.93345261434943]
画像パッチを20レベルの曖昧さの1つに分類するために、ディープニューラルネットワークをトレーニングします。
トレーニングされたモデルは、反復重み付きガイドフィルタを適用して改善するパッチのぼかしを決定するために使用される。
その結果、デフォーカスマップは各ピクセルのぼやけた度合いの情報を運ぶ。
論文 参考訳(メタデータ) (2021-07-30T06:18:16Z) - Spatially-Variant CNN-based Point Spread Function Estimation for Blind
Deconvolution and Depth Estimation in Optical Microscopy [6.09170287691728]
薄めながら平らでない物体の光顕微鏡画像の解像度を向上する手法を提案する。
畳み込みニューラルネットワーク(CNN)を用いた空間変動点スプレッド関数(PSF)モデルのパラメータを推定する。
本手法は,理想条件下での2乗ピアソン相関係数0.99で画像自体からPSFパラメータを復元する。
論文 参考訳(メタデータ) (2020-10-08T14:20:16Z) - Single-shot autofocusing of microscopy images using deep learning [0.30586855806896046]
Deep-Rと呼ばれるディープラーニングベースのオフラインオートフォーカス手法は、ワンショット顕微鏡画像の高速かつ盲目的にオートフォーカスするように訓練されている。
Deep-Rは、通常のオンラインアルゴリズムのオートフォーカス手法と比較してかなり高速である。
論文 参考訳(メタデータ) (2020-03-21T06:07:27Z) - Multi-View Photometric Stereo: A Robust Solution and Benchmark Dataset
for Spatially Varying Isotropic Materials [65.95928593628128]
多視点光度ステレオ技術を用いて3次元形状と空間的に異なる反射率の両方をキャプチャする手法を提案する。
我々のアルゴリズムは、遠近点光源と遠近点光源に適している。
論文 参考訳(メタデータ) (2020-01-18T12:26:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。