論文の概要: GreenRFM: Toward a resource-efficient radiology foundation model
- arxiv url: http://arxiv.org/abs/2603.06467v1
- Date: Fri, 06 Mar 2026 16:51:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 13:17:46.279932
- Title: GreenRFM: Toward a resource-efficient radiology foundation model
- Title(参考訳): グリーンRFM : 資源効率のよい放射線学基礎モデルを目指して
- Authors: Yingtai Li, Shuai Ming, Mingyue Zhao, Haoran Lai, Rongsheng Wang, Rui Zhou, Rundong Wang, Yujia Li, Wei Wei, Shaohua Kevin Zhou,
- Abstract要約: 本稿では,資源効率の高い事前学習フレームワークであるGreenRFMについて述べる。
本フレームワークは,多様な患者集団と画像プロトコルをまたいだ堅牢な一般化を実現する。
4施設20万枚以上の画像と2つのモダリティを用いた広範囲な実験を行った。
- 参考スコア(独自算出の注目度): 13.676606904401433
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The development of radiology foundation models (RFMs) is hindered by a reliance on brute-force scaling. Existing approaches often directly translate methods for natural images, which prioritize scale over precision and hence lead to brittle and expensive models in clinical practice. To address this, we present a resource-efficient pre-training framework, GreenRFM, that achieves state-of-the-art performance. Our framework ensures robust generalization across diverse patient populations and imaging protocols, reducing computational requirements by orders of magnitude while surpassing complex, parameter-heavy models. These capabilities stem from principled supervision design that aims to maximally utilize supervisory signals via More distilled, Ubiquitous, Semantic-enforcing, and Task-aligning (MUST) supervision, rather than simply piling up the quantity of training data. We offer two GreenRFM configurations: (i) a performant model that establishes a new state-of-the-art using a single 24GB GPU within 24 hours, and (ii) a lightweight model that matches existing benchmarks with 6GB VRAM in 4 hours. We conduct extensive experiments using over 200,000 images from four institutions and of two modalities. GreenRFMs achieve superior performances on chest and abdominal CT datasets, regardless of public or private benchmark, surpassing a range of baseline models. In addition, the results on internal musculoskeletal MRI images show that the same supervision principles transfer between different modalities. Our performance and efficiency challenge the ``scale is all you need'' dogma and democratize the equitable development of state-of-the-art RFMs for clinicians even on a laptop.
- Abstract(参考訳): ラジオロジー基礎モデル(RFMs)の開発は、ブルートフォーススケーリングへの依存によって妨げられている。
既存のアプローチは、しばしば自然画像の方法を直接翻訳し、精度よりもスケールを優先し、したがって臨床実践において脆く高価なモデルを生み出す。
そこで本研究では,資源効率の高い事前学習フレームワークであるGreenRFMを提案する。
我々のフレームワークは多様な患者集団と画像プロトコルをまたいだ堅牢な一般化を実現し、複雑なパラメータ重モデルを超えながら、計算要求を桁違いに削減する。
これらの機能は、単にトレーニングデータの量を積み上げるのではなく、多量の蒸留、ユビキタス、セマンティック強化、タスク調整(MUST)による監督信号の最大活用を目的とした、原則化された監視設計に由来する。
2つのGreenRFM構成を提供しています。
(i)24時間以内に単一の24GB GPUを使用して新しい最先端技術を確立するパフォーマンスモデル
(ii)既存のベンチマークと6GBのVRAMを4時間で一致させる軽量モデル。
4施設20万枚以上の画像と2つのモダリティを用いた広範囲な実験を行った。
GreenRFMは、パブリックまたはプライベートなベンチマークにかかわらず、胸部および腹部CTデータセット上で、さまざまなベースラインモデルを上回る優れたパフォーマンスを達成する。
また, 内部筋骨格MRI画像の結果から, 同じ監督原理が異なるモダリティ間で伝達されることが示唆された。
私たちのパフォーマンスと効率性は、'スケールはあなたに必要なすべて'に挑戦し、ラップトップでさえも、最先端のRAMの公平な開発を民主化します。
関連論文リスト
- MedDChest: A Content-Aware Multimodal Foundational Vision Model for Thoracic Imaging [3.0332210076508326]
我々は胸部画像に特化して最適化された新しい基礎的視覚変換器(ViT)モデルであるMedDChestを提案する。
われわれはMedDChestを、120万枚以上の画像からなる大規模でキュレートされたマルチモーダルデータセットでゼロからトレーニングした。
我々は、下流の様々な診断タスクを微調整することで、モデルの有効性を検証する。
論文 参考訳(メタデータ) (2025-11-06T03:28:56Z) - Versatile and Efficient Medical Image Super-Resolution Via Frequency-Gated Mamba [10.69081892501522]
本稿では,FGMambaを提案する。FGMambaは,グローバルな依存性モデリングと細部拡張を軽量アーキテクチャに統合した,周波数対応のゲート状態空間モデルである。
本研究は,スケーラブルかつ高精度な医用画像強調のための周波数認識状態空間モデリングの有効性を検証した。
論文 参考訳(メタデータ) (2025-10-31T09:12:12Z) - MM-DINOv2: Adapting Foundation Models for Multi-Modal Medical Image Analysis [19.063517827476826]
MM-DINOv2(MM-DINOv2)は,マルチモーダル・メディカル・イメージングのための事前学習型視覚基盤モデルDINOv2に適応する新しいフレームワークである。
本手法では,マルチモーダル・パッチの埋め込みを取り入れ,視覚基盤モデルによりマルチモーダル・イメージングデータを効果的に処理することができる。
本手法は外部テストセットで0.6のマシューズ相関係数(MCC)を達成し、最先端の教師付きアプローチを+11.1%超える。
論文 参考訳(メタデータ) (2025-09-08T12:34:15Z) - Cross-conditioned Diffusion Model for Medical Image to Image Translation [22.020931436223204]
医用画像から画像への変換のためのクロスコンディショニング拡散モデル(CDM)を提案する。
まず、目的のモダリティの分布をモデル化するためのモダリティ固有表現モデル(MRM)を提案する。
そして、MDN(Modality-Decoupled Diffusion Network)を設計し、MRMから効率よく効果的に分布を学習する。
論文 参考訳(メタデータ) (2024-09-13T02:48:56Z) - PMT: Progressive Mean Teacher via Exploring Temporal Consistency for Semi-Supervised Medical Image Segmentation [51.509573838103854]
医用画像セグメンテーションのための半教師付き学習フレームワークであるプログレッシブ平均教師(PMT)を提案する。
我々のPMTは、トレーニングプロセスにおいて、堅牢で多様な特徴を学習することで、高忠実な擬似ラベルを生成する。
CT と MRI の異なる2つのデータセットに対する実験結果から,本手法が最先端の医用画像分割法より優れていることが示された。
論文 参考訳(メタデータ) (2024-09-08T15:02:25Z) - Towards a clinically accessible radiology foundation model: open-access and lightweight, with automated evaluation [113.5002649181103]
オープンソースの小型マルチモーダルモデル(SMM)を訓練し、放射線学における未測定臨床ニーズに対する能力ギャップを埋める。
トレーニングのために,697万以上の画像テキストペアからなる大規模なデータセットを組み立てる。
評価のために,GPT-4に基づく実測値CheXpromptを提案する。
LlaVA-Radの推論は高速で、単一のV100 GPU上でプライベート設定で実行できる。
論文 参考訳(メタデータ) (2024-03-12T18:12:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。