論文の概要: Is an Ultra Large Natural Image-Based Foundation Model Superior to a Retina-Specific Model for Detecting Ocular and Systemic Diseases?
- arxiv url: http://arxiv.org/abs/2502.06289v1
- Date: Mon, 10 Feb 2025 09:31:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:33:45.882631
- Title: Is an Ultra Large Natural Image-Based Foundation Model Superior to a Retina-Specific Model for Detecting Ocular and Systemic Diseases?
- Title(参考訳): 超大型自然画像基盤モデルが網膜特異的な眼・全身疾患検出モデルに勝っているか?
- Authors: Qingshan Hou, Yukun Zhou, Jocelyn Hui Lin Goh, Ke Zou, Samantha Min Er Yew, Sahana Srinivasan, Meng Wang, Thaddaeus Lo, Xiaofeng Lei, Siegfried K. Wagner, Mark A. Chia, Dawei Yang, Hongyang Jiang, AnRan Ran, Rui Santos, Gabor Mark Somfai, Juan Helen Zhou, Haoyu Chen, Qingyu Chen, Carol Yim-Lui Cheung, Pearse A. Keane, Yih Chung Tham,
- Abstract要約: RETFoundおよびDINOv2モデルは眼疾患検出および全身性疾患予知タスクのために評価された。
RETFoundは、心不全、梗塞、虚血性脳梗塞の予測において、すべてのDINOv2モデルよりも優れた性能を示した。
- 参考スコア(独自算出の注目度): 15.146396276161937
- License:
- Abstract: The advent of foundation models (FMs) is transforming medical domain. In ophthalmology, RETFound, a retina-specific FM pre-trained sequentially on 1.4 million natural images and 1.6 million retinal images, has demonstrated high adaptability across clinical applications. Conversely, DINOv2, a general-purpose vision FM pre-trained on 142 million natural images, has shown promise in non-medical domains. However, its applicability to clinical tasks remains underexplored. To address this, we conducted head-to-head evaluations by fine-tuning RETFound and three DINOv2 models (large, base, small) for ocular disease detection and systemic disease prediction tasks, across eight standardized open-source ocular datasets, as well as the Moorfields AlzEye and the UK Biobank datasets. DINOv2-large model outperformed RETFound in detecting diabetic retinopathy (AUROC=0.850-0.952 vs 0.823-0.944, across three datasets, all P<=0.007) and multi-class eye diseases (AUROC=0.892 vs. 0.846, P<0.001). In glaucoma, DINOv2-base model outperformed RETFound (AUROC=0.958 vs 0.940, P<0.001). Conversely, RETFound achieved superior performance over all DINOv2 models in predicting heart failure, myocardial infarction, and ischaemic stroke (AUROC=0.732-0.796 vs 0.663-0.771, all P<0.001). These trends persisted even with 10% of the fine-tuning data. These findings showcase the distinct scenarios where general-purpose and domain-specific FMs excel, highlighting the importance of aligning FM selection with task-specific requirements to optimise clinical performance.
- Abstract(参考訳): 基礎モデル(FM)の出現は医療領域を変えつつある。
眼科では、140万の自然画像と1.6万の網膜画像に基づいて順次トレーニングされた網膜特異的FMであるRETFoundが、臨床応用全体にわたって高い適応性を示している。
逆に、DINOv2は1億4200万の自然画像に事前訓練された汎用視覚FMであり、医療以外の領域で約束されている。
しかし、その臨床応用性は未解明のままである。
そこで我々は,ReTFoundとDINOv2モデル(大,ベース,小)を用いて,標準化された8つのオープンソース眼用データセット,Moorfields AlzEye,British Biobankのデータセットを用いた頭部評価を行った。
糖尿病網膜症(AUROC=0.850-0.952 vs 0.823-0.944)と多型眼疾患(AUROC=0.892 vs。
緑内障では, DINOv2塩基モデルはRETFound (AUROC=0.958 vs 0.940, P<0.001) より優れていた。
逆に、RETFoundは心不全、心筋梗塞、虚血性脳梗塞(AUROC=0.732-0.796 vs 0.663-0.771, all P<0.001)の予測において、すべてのDINOv2モデルよりも優れた性能を示した。
これらの傾向は、微調整データの10%でも継続した。
これらの結果から,汎用FMとドメイン特化FMが優れたシナリオが示され,FM選択とタスク特化要件の整合が臨床的パフォーマンスの最適化に重要であることが示唆された。
関連論文リスト
- Are Traditional Deep Learning Model Approaches as Effective as a Retinal-Specific Foundation Model for Ocular and Systemic Disease Detection? [17.700164502042355]
自己監督型網膜特異的基礎モデル(FM)であるRETFoundは下流の応用の可能性を示した。
本研究は,視線および全身性疾患の診断における3つの画像ネット制御型深層学習(DL)モデルに対するRETFoundの評価を目的とした。
論文 参考訳(メタデータ) (2025-01-21T10:16:00Z) - Integrating Deep Learning with Fundus and Optical Coherence Tomography for Cardiovascular Disease Prediction [47.7045293755736]
心血管疾患(CVD)のリスクのある患者の早期発見は、効果的な予防ケア、医療負担の軽減、患者の生活の質の向上に不可欠である。
本研究は、網膜光コヒーレンス断層撮影(OCT)と眼底写真との併用による、将来の心疾患の特定の可能性を示すものである。
そこで我々は,MCVAE(Multi- Channel Variational Autoencoder)に基づく新たなバイナリ分類ネットワークを提案し,患者の眼底画像とOCT画像の潜伏埋め込みを学習し,個人を将来CVDを発症する可能性のあるものとそうでないものとの2つのグループに分類する。
論文 参考訳(メタデータ) (2024-10-18T12:37:51Z) - Brain Tumor Classification on MRI in Light of Molecular Markers [61.77272414423481]
1p/19q遺伝子の同時欠失は、低グレードグリオーマの臨床成績と関連している。
本研究の目的は,MRIを用いた畳み込みニューラルネットワークを脳がん検出に活用することである。
論文 参考訳(メタデータ) (2024-09-29T07:04:26Z) - Adaptive Multiscale Retinal Diagnosis: A Hybrid Trio-Model Approach for Comprehensive Fundus Multi-Disease Detection Leveraging Transfer Learning and Siamese Networks [0.0]
WHOは、世界中の22億人以上がメディアヘイズ、緑内障、ドルーゼンなどの視覚障害に苦しんでいると宣言した。
少なくとも10億件の症例は予防または治療が成功していた可能性があるが、貧困、専門医の欠如、眼科医による不正確な眼底診断、あるいはまれな疾患の存在のために未治療のままである。
これを解決するために,12種類の共通眼疾患と稀眼疾患を正確に診断するハイブリッドトリオネットワークモデルアルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-05-28T03:06:10Z) - Adapting Visual-Language Models for Generalizable Anomaly Detection in Medical Images [68.42215385041114]
本稿では,CLIPモデルを用いた医用異常検出のための軽量な多レベル適応と比較フレームワークを提案する。
提案手法では,複数の残像アダプタを事前学習した視覚エンコーダに統合し,視覚的特徴の段階的向上を実現する。
医学的異常検出ベンチマーク実験により,本手法が現在の最先端モデルを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2024-03-19T09:28:19Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Vision Transformer for Efficient Chest X-ray and Gastrointestinal Image
Classification [2.3293678240472517]
本研究では,多種多様なCNNとトランスフォーマーを用いたデータ拡張手法を提案する。
異なるモダリティから3つの医用画像データセットを用いて評価を行った。
論文 参考訳(メタデータ) (2023-04-23T04:07:03Z) - An Ensemble Method to Automatically Grade Diabetic Retinopathy with
Optical Coherence Tomography Angiography Images [4.640835690336653]
糖尿病網膜症解析チャレンジ(DRAC)2022から得られる糖尿病網膜症(DR)画像を自動的に評価するアンサンブル法を提案する。
まず、最先端の分類ネットワークを採用し、利用可能なデータセットの異なる分割でUW-OCTA画像のグレードをトレーニングする。
最終的に、25のモデルを取得し、そのうち上位16のモデルを選択し、アンサンブルして最終的な予測を生成する。
論文 参考訳(メタデータ) (2022-12-12T22:06:47Z) - MRI-based classification of IDH mutation and 1p/19q codeletion status of
gliomas using a 2.5D hybrid multi-task convolutional neural network [0.18374319565577152]
グリオーマにおけるIsocitrate dehydrogenase変異と1p/19q符号欠失は重要な予後マーカーである。
我々の目標は、MRIからこれらの分子変化を非侵襲的に決定する人工知能ベースの手法を開発することであった。
2.5Dハイブリッド畳み込みニューラルネットワークは、腫瘍を同時に局在させ、その分子状態を分類するために提案された。
論文 参考訳(メタデータ) (2022-10-07T18:46:39Z) - StRegA: Unsupervised Anomaly Detection in Brain MRIs using a Compact
Context-encoding Variational Autoencoder [48.2010192865749]
教師なし異常検出(UAD)は、健康な被験者の異常なデータセットからデータ分布を学習し、分布サンプルの抽出に応用することができる。
本研究では,コンテクストエンコーディング(context-encoding)VAE(ceVAE)モデルのコンパクトバージョンと,前処理と後処理のステップを組み合わせて,UADパイプライン(StRegA)を作成することを提案する。
提案したパイプラインは、BraTSデータセットのT2w画像と0.859$pm$0.112の腫瘍を検出しながら、Diceスコアが0.642$pm$0.101に達した。
論文 参考訳(メタデータ) (2022-01-31T14:27:35Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。