論文の概要: Fast Autofocusing using Tiny Networks for Digital Holographic Microscopy
- arxiv url: http://arxiv.org/abs/2203.07772v1
- Date: Tue, 15 Mar 2022 10:52:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-17 01:49:09.813008
- Title: Fast Autofocusing using Tiny Networks for Digital Holographic Microscopy
- Title(参考訳): デジタルホログラフィ顕微鏡のための微小ネットワークを用いた高速オートフォーカス
- Authors: St\'ephane Cuenat, Louis Andr\'eoli, Antoine N. Andr\'e, Patrick
Sandoz, Guillaume J. Laurent, Rapha\"el Couturier and Maxime Jacquot
- Abstract要約: 自己焦点を回帰問題としてキャストするために, ディープラーニング(DL)法を提案し, 実験および模擬ホログラム上で実験を行った。
実験により、予測焦点距離$Z_RmathrmPred$は精度1.2$mu$mで正確に推定されることが示された。
モデルは、推論毎に25ミリ秒未満の、CPU上のアート推論時間の状態に達する。
- 参考スコア(独自算出の注目度): 0.5057148335041798
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The numerical wavefront backpropagation principle of digital holography
confers unique extended focus capabilities, without mechanical displacements
along z-axis. However, the determination of the correct focusing distance is a
non-trivial and time consuming issue. A deep learning (DL) solution is proposed
to cast the autofocusing as a regression problem and tested over both
experimental and simulated holograms. Single wavelength digital holograms were
recorded by a Digital Holographic Microscope (DHM) with a 10$\mathrm{x}$
microscope objective from a patterned target moving in 3D over an axial range
of 92 $\mu$m. Tiny DL models are proposed and compared such as a tiny Vision
Transformer (TViT), tiny VGG16 (TVGG) and a tiny Swin-Transfomer (TSwinT). The
experiments show that the predicted focusing distance $Z_R^{\mathrm{Pred}}$ is
accurately inferred with an accuracy of 1.2 $\mu$m in average in comparison
with the DHM depth of field of 15 $\mu$m. Numerical simulations show that all
tiny models give the $Z_R^{\mathrm{Pred}}$ with an error below 0.3 $\mu$m. Such
a prospect would significantly improve the current capabilities of computer
vision position sensing in applications such as 3D microscopy for life sciences
or micro-robotics. Moreover, all models reach state of the art inference time
on CPU, less than 25 ms per inference.
- Abstract(参考訳): ディジタルホログラフィーの数値波面バックプロパゲーション原理は、Z軸に沿った機械的変位を伴わずに、ユニークな拡張焦点能力を示す。
しかし、正確な焦点距離の決定は非自明で時間を要する問題である。
自動焦点を回帰問題としてキャストし,実験とシミュレーションの両方のホログラム上でテストするために,deep learning (dl) ソリューションを提案する。
単一波長のデジタルホログラムをデジタルホログラム顕微鏡 (dhm) で記録し, 10$\mathrm{x}$ の光学的対象を, 92$\mu$m の軸方向で3dで移動させた。
小型のビジョントランスフォーマー(TViT)、小型のVGG16(TVGG)、小型のスウィントランスフォーマー(TSwinT)など、小型のDLモデルが提案され、比較されている。
実験により、予測集束距離$Z_R^{\mathrm{Pred}}$は、DHMのDHM深度15$\mu$mと比較して平均1.2$\mu$mの精度で正確に推定されることが示された。
数値シミュレーションにより、全ての小さなモデルは、0.3$\mu$m以下の誤差を持つ$Z_R^{\mathrm{Pred}}$を与える。
このような展望は、生命科学やマイクロロボティクスのための3D顕微鏡のような応用におけるコンピュータビジョン位置センシングの現在の能力を大幅に改善するだろう。
さらに、全てのモデルがcpu上のアート推論時間に達し、1推論につき25ミリ秒未満である。
関連論文リスト
- A Cranial-Feature-Based Registration Scheme for Robotic Micromanipulation Using a Microscopic Stereo Camera System [3.931620400433609]
深度知覚の線形モデルにより強化された顕微鏡ステレオカメラシステム(MSCS)を導入する。
部分的に露出したマウス頭蓋表面に対して、CNNに基づく制約付きカラー化登録戦略を用いて正確な登録方式を開発する。
これらの方法は、ロボットマイクロマニピュレーションタスクのためのMSCSと統合されている。
論文 参考訳(メタデータ) (2024-10-24T10:40:38Z) - VFMM3D: Releasing the Potential of Image by Vision Foundation Model for Monocular 3D Object Detection [80.62052650370416]
モノクル3Dオブジェクト検出は、自律運転やロボティクスなど、さまざまなアプリケーションにおいて重要な役割を担っている。
本稿では,VFMM3Dを提案する。VFMM3Dは,ビジョンファウンデーションモデル(VFM)の機能を利用して,単一ビュー画像を正確にLiDARポイントクラウド表現に変換する,革新的なフレームワークである。
論文 参考訳(メタデータ) (2024-04-15T03:12:12Z) - Sparse Points to Dense Clouds: Enhancing 3D Detection with Limited LiDAR Data [68.18735997052265]
単分子と点雲に基づく3次元検出の利点を組み合わせたバランスの取れたアプローチを提案する。
本手法では,低コストで低解像度のセンサから得られる3Dポイントを少数必要としている。
3次元検出の精度は最先端の単分子検出法と比較して20%向上する。
論文 参考訳(メタデータ) (2024-04-10T03:54:53Z) - W-HMR: Monocular Human Mesh Recovery in World Space with Weak-Supervised Calibration [57.37135310143126]
モノクロ画像からの3次元運動回復のための従来の手法は、カメラ座標に依存するため、しばしば不足する。
W-HMRは、身体の歪み情報に基づいて「適切な」焦点長を予測する弱教師付き校正法である。
また,世界空間における可視的再構築のために,身体の向きを補正する OrientCorrect モジュールを提案する。
論文 参考訳(メタデータ) (2023-11-29T09:02:07Z) - Metric3D: Towards Zero-shot Metric 3D Prediction from A Single Image [85.91935485902708]
ゼロショット単視距離深度モデルの鍵は、大規模データトレーニングと様々なカメラモデルからの距離あいまいさの解消の組合せにあることを示す。
本稿では,あいまいさ問題に明示的に対処し,既存の単分子モデルにシームレスに接続可能な標準カメラ空間変換モジュールを提案する。
本手法は, ランダムに収集したインターネット画像上での計測3次元構造の正確な復元を可能にする。
論文 参考訳(メタデータ) (2023-07-20T16:14:23Z) - DIME-Net: Neural Network-Based Dynamic Intrinsic Parameter Rectification
for Cameras with Optical Image Stabilization System [16.390775530663618]
本稿では,ポーズ推定や3次元再構成をリアルタイムで行うニューラルネットワークによる新しい手法を提案する。
提案する動的内在性ポーズ推定ネットワークをDIME-Netと名付け,3つのモバイルデバイス上で実装およびテストを行った。
いずれの場合も、DIME-Netはリジェクションエラーを少なくとも6,4$%削減できる。
論文 参考訳(メタデータ) (2023-03-20T17:45:12Z) - Monocular 3D Object Detection with Depth from Motion [74.29588921594853]
我々は、正確な物体深度推定と検出にカメラエゴモーションを利用する。
我々のフレームワークはDfM(Depth from Motion)と呼ばれ、2D画像の特徴を3D空間に持ち上げて3Dオブジェクトを検出する。
我々のフレームワークは、KITTIベンチマークにおいて最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2022-07-26T15:48:46Z) - Newton-PnP: Real-time Visual Navigation for Autonomous Toy-Drones [15.075691719756877]
パースペクティブ・n・ポイント問題は、校正された単眼カメラと既知の3Dモデルとの相対的なポーズを推定することを目的としている。
リアルタイムに弱いIoT上で動作するアルゴリズムを提案するが、実行時間と正確性の両方を保証できる。
私たちの主な動機は、人気のDJIのTello Droneを、外部の人間/ラップトップ/センサーを使わずに、屋内環境をナビゲートする自律ドローンに変えることです。
論文 参考訳(メタデータ) (2022-03-05T09:00:50Z) - Light-field microscopy with correlated beams for extended volumetric
imaging at the diffraction limit [0.0]
光強度相関に基づく光電場顕微鏡アーキテクチャを実験的に提案する。
本研究では,3次元試験対象と生体試料を集束面から再抽出する手法の有効性を実証する。
論文 参考訳(メタデータ) (2021-10-02T13:54:11Z) - Soft Expectation and Deep Maximization for Image Feature Detection [68.8204255655161]
質問をひっくり返し、まず繰り返し可能な3Dポイントを探し、次に検出器を訓練して画像空間にローカライズする、反復的半教師付き学習プロセスSEDMを提案する。
以上の結果から,sdmを用いてトレーニングした新しいモデルでは,シーン内の下位3dポイントのローカライズが容易になった。
論文 参考訳(メタデータ) (2021-04-21T00:35:32Z) - DeepFocus: a Few-Shot Microscope Slide Auto-Focus using a Sample
Invariant CNN-based Sharpness Function [6.09170287691728]
オートフォーカス(AF)法は、例えばタイムラプスを取得するために生体顕微鏡で広く用いられている。
現在のハードウェアベースの手法では、顕微鏡と画像ベースのアルゴリズムを変更する必要がある。
我々はMicro-Managerプラグインとして実装したAFメソッドであるDeepFocusを提案する。
論文 参考訳(メタデータ) (2020-01-02T23:29:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。