論文の概要: Benchmarking Ophthalmology Foundation Models for Clinically Significant Age Macular Degeneration Detection
- arxiv url: http://arxiv.org/abs/2505.05291v2
- Date: Thu, 22 May 2025 10:41:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 14:49:22.325783
- Title: Benchmarking Ophthalmology Foundation Models for Clinically Significant Age Macular Degeneration Detection
- Title(参考訳): 臨床的に有意な加齢黄斑変性検出のための眼科基礎モデルのベンチマーク
- Authors: Benjamin A. Cohen, Jonathan Fhima, Meishar Meisel, Baskin Meital, Luis Filipe Nakayama, Eran Berkowitz, Joachim A. Behar,
- Abstract要約: 自己教師付き学習(SSL)により、ビジョントランスフォーマー(ViT)は大規模な自然言語データセットから堅牢な表現を学習できるようになった。
自然画像上で事前学習したiBOTは,最も分布外一般化を達成できることを示す。
- 参考スコア(独自算出の注目度): 1.3162645769999362
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Self-supervised learning (SSL) has enabled Vision Transformers (ViTs) to learn robust representations from large-scale natural image datasets, enhancing their generalization across domains. In retinal imaging, foundation models pretrained on either natural or ophthalmic data have shown promise, but the benefits of in-domain pretraining remain uncertain. To investigate this, we benchmark six SSL-pretrained ViTs on seven digital fundus image (DFI) datasets totaling 70,000 expert-annotated images for the task of moderate-to-late age-related macular degeneration (AMD) identification. Our results show that iBOT pretrained on natural images achieves the highest out-of-distribution generalization, with AUROCs of 0.80-0.97, outperforming domain-specific models, which achieved AUROCs of 0.78-0.96 and a baseline ViT-L with no pretraining, which achieved AUROCs of 0.68-0.91. These findings highlight the value of foundation models in improving AMD identification and challenge the assumption that in-domain pretraining is necessary. Furthermore, we release BRAMD, an open-access dataset (n=587) of DFIs with AMD labels from Brazil.
- Abstract(参考訳): 自己教師付き学習(SSL)により、ビジョントランスフォーマー(ViT)は大規模な自然言語データセットから堅牢な表現を学習し、ドメイン間の一般化を強化した。
網膜イメージングでは、自然または眼科学的なデータで事前訓練された基礎モデルは、将来性を示しているが、ドメイン内の事前訓練の利点は未だ不明である。
そこで本研究では,7つのデジタルファウンダス画像(DFI)データセットにSSLを前提とした6つのViTをベンチマークした。
AUROCは0.78-0.96, ベースラインのVT-Lは0.68-0.91, AUROCは0.68-0.91であった。
これらの知見は、AMD識別を改善する上での基礎モデルの価値を強調し、ドメイン内事前訓練が必要であるという仮定に挑戦する。
さらに、ブラジルのAMDラベルを持つDFIのオープンアクセスデータセット(n=587)であるBRAMDをリリースする。
関連論文リスト
- Deep Learning Ensemble for Predicting Diabetic Macular Edema Onset Using Ultra-Wide Field Color Fundus Image [2.9945018168793025]
糖尿病性黄斑浮腫(DME)は糖尿病の重篤な合併症である。
1年以内にci-DMEの発症を予測するアンサンブル法を提案する。
論文 参考訳(メタデータ) (2024-10-09T02:16:29Z) - On the Out of Distribution Robustness of Foundation Models in Medical
Image Segmentation [47.95611203419802]
視覚と言語の基礎は、様々な自然画像とテキストデータに基づいて事前訓練されており、有望なアプローチとして現れている。
一般化性能を,同じ分布データセット上で微調整した後,事前学習した各種モデルの未確認領域と比較した。
さらに,凍結モデルに対する新しいベイズ不確実性推定法を開発し,分布外データに基づくモデルの性能評価指標として利用した。
論文 参考訳(メタデータ) (2023-11-18T14:52:10Z) - Uncertainty-inspired Open Set Learning for Retinal Anomaly
Identification [71.06194656633447]
9つの網膜条件の基底像をトレーニングし,不確実性に着想を得たオープンセット(UIOS)モデルを構築した。
しきい値戦略を持つUIOSモデルはF1スコア99.55%、97.01%、91.91%を達成した。
UIOSは、高い不確実性スコアを正しく予測し、非ターゲットの網膜疾患、低品質の眼底画像、および非基本画像のデータセットを手動でチェックする必要があることを示唆した。
論文 参考訳(メタデータ) (2023-04-08T10:47:41Z) - Clinical Deterioration Prediction in Brazilian Hospitals Based on
Artificial Neural Networks and Tree Decision Models [56.93322937189087]
超強化ニューラルネットワーク(XBNet)は臨床劣化(CD)を予測するために用いられる
XGBoostモデルはブラジルの病院のデータからCDを予測する最良の結果を得た。
論文 参考訳(メタデータ) (2022-12-17T23:29:14Z) - Self-supervised contrastive learning of echocardiogram videos enables
label-efficient cardiac disease diagnosis [48.64462717254158]
心エコービデオを用いた自己教師型コントラスト学習手法であるエコーCLRを開発した。
左室肥大症 (LVH) と大動脈狭窄症 (AS) の分類成績は,EchoCLR の訓練により有意に改善した。
EchoCLRは、医療ビデオの表現を学習する能力に特有であり、SSLがラベル付きデータセットからラベル効率の高い疾患分類を可能にすることを実証している。
論文 参考訳(メタデータ) (2022-07-23T19:17:26Z) - Robust deep learning for eye fundus images: Bridging real and synthetic data for enhancing generalization [0.8599177028761124]
この研究は、合成眼底画像を生成するために10の異なるGANアーキテクチャをAMDなしで比較する。
StyleGAN2は最も低いFrechet Inception Distance(166.17)に達し、臨床医は実際の画像と合成画像とを正確に区別できなかった。
精度はテストセットで82.8%、STAREデータセットで81.3%であり、モデルの一般化可能性を示している。
論文 参考訳(メタデータ) (2022-03-25T18:42:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。