論文の概要: DeepAf: One-Shot Spatiospectral Auto-Focus Model for Digital Pathology
- arxiv url: http://arxiv.org/abs/2510.05315v1
- Date: Mon, 06 Oct 2025 19:28:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 17:57:07.95537
- Title: DeepAf: One-Shot Spatiospectral Auto-Focus Model for Digital Pathology
- Title(参考訳): DeepAf:デジタル病理のための1ショット時空間オートフォーカスモデル
- Authors: Yousef Yeganeh, Maximilian Frantzen, Michael Lee, Kun-Hsing Yu, Nassir Navab, Azade Farshad,
- Abstract要約: 本稿ではDeepAfを利用した新しい自動顕微鏡システムを提案する。
DeepAfは、単一ショットフォーカス予測のためのハイブリッドアーキテクチャを通じて、空間的特徴とスペクトル的特徴を組み合わせる。
システムはがんの分類において4倍で0.90AUCを達成するが、これは通常の20倍WSIスキャンよりも低い倍率で重要な成果である。
- 参考スコア(独自算出の注目度): 37.648157065553185
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While Whole Slide Imaging (WSI) scanners remain the gold standard for digitizing pathology samples, their high cost limits accessibility in many healthcare settings. Other low-cost solutions also face critical limitations: automated microscopes struggle with consistent focus across varying tissue morphology, traditional auto-focus methods require time-consuming focal stacks, and existing deep-learning approaches either need multiple input images or lack generalization capability across tissue types and staining protocols. We introduce a novel automated microscopic system powered by DeepAf, a novel auto-focus framework that uniquely combines spatial and spectral features through a hybrid architecture for single-shot focus prediction. The proposed network automatically regresses the distance to the optimal focal point using the extracted spatiospectral features and adjusts the control parameters for optimal image outcomes. Our system transforms conventional microscopes into efficient slide scanners, reducing focusing time by 80% compared to stack-based methods while achieving focus accuracy of 0.18 {\mu}m on the same-lab samples, matching the performance of dual-image methods (0.19 {\mu}m) with half the input requirements. DeepAf demonstrates robust cross-lab generalization with only 0.72% false focus predictions and 90% of predictions within the depth of field. Through an extensive clinical study of 536 brain tissue samples, our system achieves 0.90 AUC in cancer classification at 4x magnification, a significant achievement at lower magnification than typical 20x WSI scans. This results in a comprehensive hardware-software design enabling accessible, real-time digital pathology in resource-constrained settings while maintaining diagnostic accuracy.
- Abstract(参考訳): WSI(Whole Slide Imaging)スキャナーは、病理サンプルをデジタル化するための金の標準であり続けているが、多くの医療環境では高いコスト制限が適用可能である。
自動化顕微鏡は様々な組織形態に一貫した焦点を合わせるのに苦労し、従来のオートフォーカス手法は時間を要する焦点スタックを必要とし、既存のディープラーニングアプローチでは複数の入力画像を必要とするか、組織タイプや染色プロトコルにまたがる一般化能力が欠如している。
我々は、単一ショット焦点予測のためのハイブリッドアーキテクチャにより、空間的特徴とスペクトル的特徴を一意に結合する新しいオートフォーカスフレームワークであるDeepAfを利用した新しい自動顕微鏡システムを提案する。
提案するネットワークは、抽出したスペクトル特徴を用いて、最適焦点までの距離を自動的に回帰し、最適画像結果に対する制御パラメータを調整する。
本システムでは, 従来の顕微鏡を効率的なスライドスキャナに変換し, スタックベース法と比較して集光時間を80%削減するとともに, 両画像法(0.19.mu}m)の性能を入力条件の半分と整合させ, 集光精度を0.18.mu}mとした。
DeepAfは、0.72%の偽焦点予測と90%のフィールド深度予測で堅牢なクロスラブ一般化を示す。
536個の脳組織サンプルの広範な臨床研究を通じて, 従来の20倍のWSIスキャンに比べて, 4倍の癌分類で0.90 AUCを達成している。
これにより、診断精度を維持しつつ、リソース制約された設定でアクセス可能でリアルタイムなデジタル病理を可能にする、包括的なハードウェア・ソフトウェア設計が可能となる。
関連論文リスト
- Lightweight Relational Embedding in Task-Interpolated Few-Shot Networks for Enhanced Gastrointestinal Disease Classification [0.0]
大腸癌の検出は、患者の生存率を高めるために重要である。
大腸内視鏡は、適切な高品質の内視鏡画像を取得することに依存する。
Few-Shot Learning アーキテクチャにより、我々のモデルは、目に見えないきめ細かな内視鏡画像パターンに迅速に適応できる。
精度は90.1%,精度は0.845,リコールは0.942,F1スコアは0.891であった。
論文 参考訳(メタデータ) (2025-05-30T16:54:51Z) - BlurryScope enables compact, cost-effective scanning microscopy for HER2 scoring using deep learning on blurry images [0.0]
ブルリスコープ(BlurryScope)は、組織部位の自動検査・解析のための費用効率が高くコンパクトなソリューションである。
ヒト上皮成長因子受容体2(HER2)スコアの自動分類を行った。
4クラス (0, 1+, 2+, 3+) と2クラス (0/1+, 2+/3+) のHER2分類では, 79.3%, 89.7%の精度が得られた。
論文 参考訳(メタデータ) (2024-10-23T04:46:36Z) - A Unified Model for Compressed Sensing MRI Across Undersampling Patterns [69.19631302047569]
様々な計測アンサンプパターンと画像解像度に頑健な統合MRI再構成モデルを提案する。
我々のモデルは、拡散法よりも600$times$高速な推論で、最先端CNN(End-to-End VarNet)の4dBでSSIMを11%改善し、PSNRを4dB改善する。
論文 参考訳(メタデータ) (2024-10-05T20:03:57Z) - Deep Reinforcement Learning Based System for Intraoperative
Hyperspectral Video Autofocusing [2.476200036182773]
この研究は、焦点調整可能な液体レンズをビデオHSIエクソスコープに統合する。
現実的で再現可能なテストデータセットを作成するために、第一種ロボット焦点時間スキャンが実施された。
論文 参考訳(メタデータ) (2023-07-21T15:04:21Z) - Increasing a microscope's effective field of view via overlapped imaging
and machine learning [4.23935174235373]
この研究は、高効率自動検体分析のために単一のセンサー上で複数の独立した視野を重畳するマルチレンズ顕微鏡イメージングシステムを示す。
論文 参考訳(メタデータ) (2021-10-10T22:52:36Z) - AOSLO-net: A deep learning-based method for automatic segmentation of
retinal microaneurysms from adaptive optics scanning laser ophthalmoscope
images [3.8848390007421196]
トレーニングポリシをカスタマイズしたディープニューラルネットワークフレームワークであるAOSLO-netを導入し、AOSLOイメージからMAを自動的に分割する。
87 DR AOSLO画像を用いたAOSLO-netの性能評価を行った。
論文 参考訳(メタデータ) (2021-06-05T05:06:36Z) - A parameter refinement method for Ptychography based on Deep Learning
concepts [55.41644538483948]
伝播距離、位置誤差、部分的コヒーレンスにおける粗いパラメトリゼーションは、しばしば実験の生存性を脅かす。
最新のDeep Learningフレームワークは、セットアップの不整合を自律的に補正するために使用され、ポチコグラフィーの再構築の質が向上する。
我々は,elettra シンクロトロン施設のツインミックビームラインで取得した合成データセットと実データの両方でシステムをテストした。
論文 参考訳(メタデータ) (2021-05-18T10:15:17Z) - Rapid Whole Slide Imaging via Learning-based Two-shot Virtual
Autofocusing [57.90239401665367]
ホイルスライドイメージング(WSI)は、デジタル病理の新たな技術である。
本稿では,リフォーカスを行うための機械的調整に依存しないテキスト仮想オートフォーカスの概念を提案する。
論文 参考訳(メタデータ) (2020-03-14T13:40:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。