論文の概要: Native Intelligence Emerges from Large-Scale Clinical Practice: A Retinal Foundation Model with Deployment Efficiency
- arxiv url: http://arxiv.org/abs/2512.14499v1
- Date: Tue, 16 Dec 2025 15:33:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 16:49:26.767301
- Title: Native Intelligence Emerges from Large-Scale Clinical Practice: A Retinal Foundation Model with Deployment Efficiency
- Title(参考訳): 大規模臨床から生まれたネイティブインテリジェンス - デプロイ効率を備えたRetinalファウンデーションモデル
- Authors: Jia Guo, Jiawei Du, Shengzhu Yang, Shuai Lu, Wenquan Cheng, Kaiwen Zhang, Yihua Sun, Chuhong Yang, Weihang Zhang, Fang Chen, Yilan Wu, Lie Ju, Guochen Ning, Longfei Ma, Huiping Yao, Jinyuan Wang, Peilun Shi, Yukun Zhou, Jie Xu, Pearse A. Keane, Hanruo Liu, Hongen Liao, Ningli Wang, Huiqi Li,
- Abstract要約: 本稿では,485,980枚の眼底写真とそれに対応する診断報告の自然なアライメントから学習する網膜基盤モデルReVisionを提案する。
33人の眼科医による先進的な研究において、ReVisionのゼロショット支援は全ての経験レベルにおいて診断精度を14.8%向上させた。
- 参考スコア(独自算出の注目度): 36.52215702000448
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current retinal foundation models remain constrained by curated research datasets that lack authentic clinical context, and require extensive task-specific optimization for each application, limiting their deployment efficiency in low-resource settings. Here, we show that these barriers can be overcome by building clinical native intelligence directly from real-world medical practice. Our key insight is that large-scale telemedicine programs, where expert centers provide remote consultations across distributed facilities, represent a natural reservoir for learning clinical image interpretation. We present ReVision, a retinal foundation model that learns from the natural alignment between 485,980 color fundus photographs and their corresponding diagnostic reports, accumulated through a decade-long telemedicine program spanning 162 medical institutions across China. Through extensive evaluation across 27 ophthalmic benchmarks, we demonstrate that ReVison enables deployment efficiency with minimal local resources. Without any task-specific training, ReVision achieves zero-shot disease detection with an average AUROC of 0.946 across 12 public benchmarks and 0.952 on 3 independent clinical cohorts. When minimal adaptation is feasible, ReVision matches extensively fine-tuned alternatives while requiring orders of magnitude fewer trainable parameters and labeled examples. The learned representations also transfer effectively to new clinical sites, imaging domains, imaging modalities, and systemic health prediction tasks. In a prospective reader study with 33 ophthalmologists, ReVision's zero-shot assistance improved diagnostic accuracy by 14.8% across all experience levels. These results demonstrate that clinical native intelligence can be directly extracted from clinical archives without any further annotation to build medical AI systems suited to various low-resource settings.
- Abstract(参考訳): 現在の網膜基盤モデルは、実際の臨床状況に欠け、各アプリケーションに対して広範なタスク固有の最適化を必要とし、低リソース環境でのデプロイメント効率を制限している、キュレートされた研究データセットによって制約され続けている。
ここでは,現実の医療実践から直接臨床ネイティブインテリジェンスを構築することで,これらの障壁を克服できることを示す。
私たちの重要な洞察は、専門家センターが分散施設間で遠隔相談を行う大規模な遠隔医療プログラムは、臨床画像解釈を学ぶための自然な貯水池であるということです。
485,980枚の写真とそれに対応する診断報告の自然な一致から学習する網膜基盤モデルReVisionを、中国中の162の医療機関に10年にわたる遠隔医療プログラムを通じて蓄積する。
27の眼科用ベンチマークの広範な評価を通じて、ReVisonが最小限のローカルリソースでデプロイメント効率を向上できることを実証した。
タスク固有のトレーニングがなければ、ReVisionは12の公開ベンチマークで平均0.946のAUROCと3つの独立した臨床コホートで0.952のゼロショット病検出を達成できる。
最小限の適応が実現可能な場合、ReVisionは、トレーニング可能なパラメータやラベル付き例を桁違いに減らしながら、広範囲に微調整された代替品にマッチする。
学習された表現は、新しい臨床現場、画像領域、画像モダリティ、および全身的な健康予測タスクに効果的に転送される。
33人の眼科医による先進的な研究において、ReVisionのゼロショット支援は全ての経験レベルにおいて診断精度を14.8%向上させた。
これらの結果から,臨床資料から臨床ネイティブインテリジェンスを直接抽出し,様々な低リソース環境に適した医療AIシステムを構築するための注釈を付けずに構築できることが示唆された。
関連論文リスト
- Timely Clinical Diagnosis through Active Test Selection [49.091903570068155]
本稿では,現実の診断推論をよりうまくエミュレートするためのACTMED (Adaptive Clinical Test selection via Model-based Experimental Design)を提案する。
LLMは柔軟なシミュレータとして機能し、構造化されたタスク固有のトレーニングデータを必要とせずに、患者状態のもっともらしい分布を生成し、信念の更新をサポートする。
我々は、実世界のデータセット上でACTMEDを評価し、診断精度、解釈可能性、リソース使用量を改善するためにテスト選択を最適化できることを示す。
論文 参考訳(メタデータ) (2025-10-21T18:10:45Z) - DermINO: Hybrid Pretraining for a Versatile Dermatology Foundation Model [92.66916452260553]
DermNIOは皮膚科学の多目的基盤モデルである。
自己教師型学習パラダイムを増強する、新しいハイブリッド事前学習フレームワークが組み込まれている。
さまざまなタスクにおいて、最先端のモデルよりも一貫して優れています。
論文 参考訳(メタデータ) (2025-08-17T00:41:39Z) - Retinal Fundus Multi-Disease Image Classification using Hybrid CNN-Transformer-Ensemble Architectures [0.3277163122167434]
我々の研究は、網膜疾患による人口の急激な世界的な問題に動機付けられています。
我々の主な目的は、網膜疾患を正確に予測できる包括的診断システムを開発することである。
論文 参考訳(メタデータ) (2025-03-27T12:55:07Z) - How Good is my Histopathology Vision-Language Foundation Model? A Holistic Benchmark [21.47220651857942]
組織学的視覚言語基礎モデル(VLM)は、下流の様々なタスクにまたがる性能と一般化性の向上により人気を博している。
既存の病理組織学のベンチマークのほとんどは、患者のデータプライバシーによる部分的な可用性だけでなく、臨床、臓器、取得機器の多様性の観点からも、一過性のものであるか制限されている。
HistoVLは、クラス名と多様な病理学的記述を組み込んだ、最大11種類の取得ツールとキャプションを用いて取得した画像からなる、完全にオープンソースな総合ベンチマークである。
論文 参考訳(メタデータ) (2025-03-17T09:45:22Z) - Federated Learning for Diabetic Retinopathy Diagnosis: Enhancing Accuracy and Generalizability in Under-Resourced Regions [0.3277163122167433]
糖尿病網膜症は、世界中の高齢者の視覚喪失の原因となっているが、未治療領域では眼科医が欠如している。
現在の最先端のディープラーニングシステムは、一般化性に限界があるため、これらの機関で苦労している。
本稿では,効率的なNetB0アーキテクチャを用いた糖尿病網膜症診断のための新しいフェデレーション学習システムについて検討する。
論文 参考訳(メタデータ) (2024-10-30T23:56:56Z) - Specialized curricula for training vision-language models in retinal image analysis [8.167708226285932]
視覚言語モデル(VLM)は画像を自動的に解釈し、その結果をテキストとして要約する。
本研究では, OpenAI の ChatGPT-4o モデルは, 専門職における眼科医の実践に比べ, 明らかに低性能であることを示す。
論文 参考訳(メタデータ) (2024-07-11T11:31:48Z) - Robust and Efficient Medical Imaging with Self-Supervision [80.62711706785834]
医用画像AIの堅牢性とデータ効率を向上させるための統一表現学習戦略であるREMEDISを提案する。
様々な医療画像タスクを研究し, 振り返りデータを用いて3つの現実的な応用シナリオをシミュレートする。
論文 参考訳(メタデータ) (2022-05-19T17:34:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。