論文の概要: Full end-to-end diagnostic workflow automation of 3D OCT via foundation model-driven AI for retinal diseases
- arxiv url: http://arxiv.org/abs/2602.03302v1
- Date: Tue, 03 Feb 2026 09:28:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.359122
- Title: Full end-to-end diagnostic workflow automation of 3D OCT via foundation model-driven AI for retinal diseases
- Title(参考訳): 網膜疾患に対する基礎モデル駆動型AIによる3D OCTの完全エンドツーエンド診断ワークフロー自動化
- Authors: Jinze Zhang, Jian Zhong, Li Lin, Jiaxiong Li, Ke Ma, Naiyang Li, Meng Li, Yuan Pan, Zeyu Meng, Mengyun Zhou, Shang Huang, Shilong Yu, Zhengyu Duan, Sutong Li, Honghui Xia, Juping Liu, Dan Liang, Yantao Wei, Xiaoying Tang, Jin Yuan, Peng Xiao,
- Abstract要約: フルプロセスOCTベースの臨床ユーティリティシステム(FOCUS)について紹介する。
FOCUSは3D OCT網膜疾患診断のエンドツーエンド自動化を可能にする基礎モデル駆動フレームワークである。
我々は,3,300例(40,672スライス),および4つの異なる中心および多彩なOCTデバイスにまたがる1,345例(18,498スライス)について,訓練および試験を行った。
- 参考スコア(独自算出の注目度): 14.269884626099625
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Optical coherence tomography (OCT) has revolutionized retinal disease diagnosis with its high-resolution and three-dimensional imaging nature, yet its full diagnostic automation in clinical practices remains constrained by multi-stage workflows and conventional single-slice single-task AI models. We present Full-process OCT-based Clinical Utility System (FOCUS), a foundation model-driven framework enabling end-to-end automation of 3D OCT retinal disease diagnosis. FOCUS sequentially performs image quality assessment with EfficientNetV2-S, followed by abnormality detection and multi-disease classification using a fine-tuned Vision Foundation Model. Crucially, FOCUS leverages a unified adaptive aggregation method to intelligently integrate 2D slices-level predictions into comprehensive 3D patient-level diagnosis. Trained and tested on 3,300 patients (40,672 slices), and externally validated on 1,345 patients (18,498 slices) across four different-tier centers and diverse OCT devices, FOCUS achieved high F1 scores for quality assessment (99.01%), abnormally detection (97.46%), and patient-level diagnosis (94.39%). Real-world validation across centers also showed stable performance (F1: 90.22%-95.24%). In human-machine comparisons, FOCUS matched expert performance in abnormality detection (F1: 95.47% vs 90.91%) and multi-disease diagnosis (F1: 93.49% vs 91.35%), while demonstrating better efficiency. FOCUS automates the image-to-diagnosis pipeline, representing a critical advance towards unmanned ophthalmology with a validated blueprint for autonomous screening to enhance population scale retinal care accessibility and efficiency.
- Abstract(参考訳): 光コヒーレンス断層撮影(OCT)は網膜疾患の診断を高解像度で3次元のイメージング特性で革新させたが、臨床における完全な診断自動化は、多段階のワークフローや従来の単一タスクのAIモデルによって制限されている。
3D OCT網膜疾患診断のエンドツーエンド自動化を可能にする基礎モデル駆動型フレームワークFOCUSを提案する。
FOCUSは、EfficientNetV2-Sを用いて画像品質評価を順次実施し、次いで、微調整されたビジョンファウンデーションモデルを用いて異常検出とマルチディスリーズ分類を行う。
FOCUSは、2Dスライスレベルの予測を総合的な3D患者レベルの診断にインテリジェントに統合するために、統合適応アグリゲーション手法を活用している。
3,300人 (40,672スライス) でトレーニングおよびテストを行い、4つの異なる階層のセンターと多様なOCTデバイスで1,345人 (18,498スライス) の患者に対して外的検証を行い、FACUSは品質評価(99.01%)、異常検出(97.46%)、患者レベルの診断(94.39%)で高いF1スコアを得た。
センター間の実世界の検証も安定している(F1: 90.22%-95.24%)。
ヒトと機械の比較では、FOCUSは異常検出(F1:95.47%対90.91%)と多変量診断(F1:93.49%対91.35%)の専門的な成績と一致し、効率は向上した。
FOCUSは、画像と診断パイプラインを自動化し、自律スクリーニングのための検証済み青写真を用いて、網膜のアクセシビリティと効率を高めることにより、無人眼科への重要な進歩を示す。
関連論文リスト
- Automated Classification of First-Trimester Fetal Heart Views Using Ultrasound-Specific Self-Supervised Learning [0.205246094017924]
本研究は,第1トリメスター胎児心電図分類のための自己監督型超音波基礎モデルUSF-MAEの評価である。
USF-MAEは、370,000枚以上の未標識超音波画像のマスク付き自己符号化モデルを用いて事前訓練される。
全評価指標で最高性能を達成し、90.57%の精度、91.15%の精度、90.57%のリコール、90.71%のF1スコアを記録した。
論文 参考訳(メタデータ) (2025-12-30T22:24:26Z) - HistoART: Histopathology Artifact Detection and Reporting Tool [37.31105955164019]
ワイルスライドイメージング(WSI)は、組織標本の詳細な高分解能検査のために広く用いられている。
WSIは、スライドの準備とスキャンの間に導入されたアーティファクトに弱いままです。
本稿では,WSIに対する3つのロバストなアーティファクト検出手法を提案し,比較する。
論文 参考訳(メタデータ) (2025-06-23T17:22:19Z) - A Clinician-Friendly Platform for Ophthalmic Image Analysis Without Technical Barriers [51.45596445363302]
GlobeReadyはクリニックフレンドリーなAIプラットフォームで、再トレーニング、微調整、技術専門知識の必要性なしに、基礎疾患の診断を可能にする。
光コヒーレンス・トモグラフィー(OCT)スキャンを用いて、カラー・ファンドス写真(CPF)を用いた11のファンドス病(93.9-98.5%)と15のファンドス病(87.2-92.7%)の精度を示した。
トレーニングなしのローカル機能拡張を活用することで、GlobeReadyプラットフォームは、センターや人口間のドメインシフトを効果的に軽減する。
論文 参考訳(メタデータ) (2025-04-22T14:17:22Z) - Breast Cancer Histopathology Classification using CBAM-EfficientNetV2 with Transfer Learning [0.0]
本研究では,EfficientNetV2モデルを用いて特徴抽出を改善し,関連組織領域に焦点を当てた新しいアプローチを提案する。
CBAMを搭載した効率の良いNetV2-XLは、最高精度99.01%、F1スコア98.31%を400倍の精度で達成した。
論文 参考訳(メタデータ) (2024-10-29T17:56:05Z) - Enhancing Diagnostic Reliability of Foundation Model with Uncertainty Estimation in OCT Images [41.002573031087856]
光コヒーレンストモグラフィー(OCT)における11個の網膜状態を検出するために,不確実性推定(FMUE)を用いた基礎モデルを開発した。
FMUEは2つの最先端アルゴリズムであるRETFoundとUIOSよりも96.76%高いF1スコアを獲得し、しきい値戦略を98.44%に改善した。
我々のモデルは、F1スコアが高い2人の眼科医(95.17%対61.93% &71.72%)より優れている。
論文 参考訳(メタデータ) (2024-06-18T03:04:52Z) - Adaptive Multiscale Retinal Diagnosis: A Hybrid Trio-Model Approach for Comprehensive Fundus Multi-Disease Detection Leveraging Transfer Learning and Siamese Networks [0.0]
WHOは、世界中の22億人以上がメディアヘイズ、緑内障、ドルーゼンなどの視覚障害に苦しんでいると宣言した。
少なくとも10億件の症例は予防または治療が成功していた可能性があるが、貧困、専門医の欠如、眼科医による不正確な眼底診断、あるいはまれな疾患の存在のために未治療のままである。
これを解決するために,12種類の共通眼疾患と稀眼疾患を正確に診断するハイブリッドトリオネットワークモデルアルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-05-28T03:06:10Z) - Spatial-aware Transformer-GRU Framework for Enhanced Glaucoma Diagnosis from 3D OCT Imaging [3.093890460224435]
本稿では3次元光コヒーレンス・トモグラフィー(OCT)画像の診断値を利用した新しいディープラーニングフレームワークを提案する。
我々は、リッチスライスな特徴抽出のための網膜データに事前学習された視覚変換器と、スライス間空間依存性をキャプチャするための双方向Gated Recurrent Unitを統合する。
論文 参考訳(メタデータ) (2024-03-08T22:25:15Z) - Uncertainty-inspired Open Set Learning for Retinal Anomaly
Identification [71.06194656633447]
9つの網膜条件の基底像をトレーニングし,不確実性に着想を得たオープンセット(UIOS)モデルを構築した。
しきい値戦略を持つUIOSモデルはF1スコア99.55%、97.01%、91.91%を達成した。
UIOSは、高い不確実性スコアを正しく予測し、非ターゲットの網膜疾患、低品質の眼底画像、および非基本画像のデータセットを手動でチェックする必要があることを示唆した。
論文 参考訳(メタデータ) (2023-04-08T10:47:41Z) - Advancing COVID-19 Diagnosis with Privacy-Preserving Collaboration in
Artificial Intelligence [79.038671794961]
我々はUCADI(Unified CT-COVID AI Diagnostic Initiative)を立ち上げ、各ホスト機関でAIモデルを分散的にトレーニングし、独立して実行することができる。
本研究は,中国とイギリスに所在する23の病院で採取した3,336例の胸部CT9,573例について検討した。
論文 参考訳(メタデータ) (2021-11-18T00:43:41Z) - COVID-MTL: Multitask Learning with Shift3D and Random-weighted Loss for
Automated Diagnosis and Severity Assessment of COVID-19 [39.57518533765393]
新型コロナウイルスの正確かつ効果的な評価を支援する自動化方法が緊急に必要である。
我々は,放射線学とNATの両方において,自動かつ同時検出と重症度評価が可能なエンドツーエンドマルチタスク学習フレームワーク(COVID-MTL)を提案する。
論文 参考訳(メタデータ) (2020-12-10T08:30:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。