論文の概要: MAFM^3: Modular Adaptation of Foundation Models for Multi-Modal Medical AI
- arxiv url: http://arxiv.org/abs/2511.11212v1
- Date: Fri, 14 Nov 2025 12:10:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.575148
- Title: MAFM^3: Modular Adaptation of Foundation Models for Multi-Modal Medical AI
- Title(参考訳): MAFM^3:マルチモーダル医療AIのための基礎モデルのモジュール適応
- Authors: Mohammad Areeb Qazi, Munachiso S Nwadike, Ibrahim Almakky, Mohammad Yaqub, Numan Saeed,
- Abstract要約: 我々は,単一の基礎モデルを多様な領域,タスク,モダリティに拡張可能なフレームワークMAFM3を提案する。
新しいタスクやモダリティを個別に扱う従来の適応手法とは異なり、MAFM3は効率的なマルチタスクとマルチモーダル適応のための統一された拡張可能なフレームワークを提供する。
- 参考スコア(独自算出の注目度): 3.1920084309415007
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Foundational models are trained on extensive datasets to capture the general trends of a domain. However, in medical imaging, the scarcity of data makes pre-training for every domain, modality, or task challenging. Instead of building separate models, we propose MAFM^3 (Modular Adaptation of Foundation Models for Multi-Modal Medical AI), a framework that enables a single foundation model to expand into diverse domains, tasks, and modalities through lightweight modular components. These components serve as specialized skill sets that allow the system to flexibly activate the appropriate capability at the inference time, depending on the input type or clinical objective. Unlike conventional adaptation methods that treat each new task or modality in isolation, MAFM^3 provides a unified and expandable framework for efficient multitask and multimodality adaptation. Empirically, we validate our approach by adapting a chest CT foundation model initially trained for classification into prognosis and segmentation modules. Our results show improved performance on both tasks. Furthermore, by incorporating PET scans, MAFM^3 achieved an improvement in the Dice score 5% compared to the respective baselines. These findings establish that foundation models, when equipped with modular components, are not inherently constrained to their initial training scope but can evolve into multitask, multimodality systems for medical imaging. The code implementation of this work can be found at https://github.com/Areeb2735/CTscan_prognosis_VLM
- Abstract(参考訳): 基礎モデルは、ドメインの一般的なトレンドを捉えるために、広範囲なデータセットで訓練される。
しかし、医用画像では、データの不足により、すべての領域、モダリティ、タスクに対する事前トレーニングが困難になる。
個別のモデルを構築する代わりに,MAFM^3(Modular Adaptation of Foundation Models for Multi-Modal Medical AI)を提案する。
これらのコンポーネントは、入力タイプや臨床目的に応じて、システムが推論時に適切な能力を柔軟に活性化できる特別なスキルセットとして機能する。
新しいタスクやモダリティを個別に扱う従来の適応手法とは異なり、MAFM^3は効率的なマルチタスクとマルチモーダル適応のための統一された拡張可能なフレームワークを提供する。
胸部CT基盤モデルを用いて,予後とセグメンテーションモジュールの分類を行った。
その結果,両タスクのパフォーマンスが向上した。
さらにPETスキャンを取り入れることで,MAFM^3は各基準値に比べてDiceスコアが5%向上した。
これらの結果から, 基礎モデルは, 初期訓練範囲に固有の制約を持たず, マルチタスク・マルチモーダリティ・システムへと進化する可能性が示唆された。
この作業のコード実装はhttps://github.com/Areeb2735/CTscan_prognosis_VLMで確認できる。
関連論文リスト
- MedDINOv3: How to adapt vision foundation models for medical image segmentation? [16.256590269050367]
我々はDINOv3を医用セグメンテーションに適応するためのシンプルで効果的なフレームワークであるMedDINOv3を紹介した。
我々は,多段階DINOv3レシピを用いて3.87M軸CTスライスをキュレートしたCT-3Mを用いて,ドメイン適応型プレトレーニングを行う。
MedDINOv3は4つのセグメンテーションベンチマークで最先端のパフォーマンスにマッチする。
論文 参考訳(メタデータ) (2025-09-02T14:44:43Z) - UNICON: UNIfied CONtinual Learning for Medical Foundational Models [0.8672882547905405]
医用画像では、データの不足により、すべての領域、モダリティ、タスクに対する事前トレーニングが困難になる。
継続的学習は、異なるドメインやタスクでモデルを逐次微調整することで、ソリューションを提供する。
基礎モデルのシームレスな適応を可能にするフレームワークであるUNIfied Continual Learning for Medical Foundational Models (UNICON)を提案する。
論文 参考訳(メタデータ) (2025-08-19T17:31:32Z) - MIND: Modality-Informed Knowledge Distillation Framework for Multimodal Clinical Prediction Tasks [50.98856172702256]
マルチモーダルモデル圧縮手法である MIND (Modality-Informed Knowledge Distillation) フレームワークを提案する。
MINDは、様々なサイズの事前訓練されたディープニューラルネットワークのアンサンブルから、より小さなマルチモーダルの学生に知識を伝達する。
時系列データと胸部X線画像を用いた2値および複数ラベルの臨床予測タスクにおけるMINDの評価を行った。
論文 参考訳(メタデータ) (2025-02-03T08:50:00Z) - PMT: Progressive Mean Teacher via Exploring Temporal Consistency for Semi-Supervised Medical Image Segmentation [51.509573838103854]
医用画像セグメンテーションのための半教師付き学習フレームワークであるプログレッシブ平均教師(PMT)を提案する。
我々のPMTは、トレーニングプロセスにおいて、堅牢で多様な特徴を学習することで、高忠実な擬似ラベルを生成する。
CT と MRI の異なる2つのデータセットに対する実験結果から,本手法が最先端の医用画像分割法より優れていることが示された。
論文 参考訳(メタデータ) (2024-09-08T15:02:25Z) - FEDKIM: Adaptive Federated Knowledge Injection into Medical Foundation Models [54.09244105445476]
本研究は,フェデレート・ラーニング・フレームワーク内で医療基盤モデルを拡張するための新しい知識注入手法であるFedKIMを紹介する。
FedKIMは軽量なローカルモデルを活用して、プライベートデータから医療知識を抽出し、この知識を集中基盤モデルに統合する。
7つのモードで12タスクを対象に実験を行い,FedKIMの有効性について検討した。
論文 参考訳(メタデータ) (2024-08-17T15:42:29Z) - Med-MoE: Mixture of Domain-Specific Experts for Lightweight Medical Vision-Language Models [17.643421997037514]
差別的, 生成的両マルチモーダル医療課題に対処する新しい枠組みを提案する。
Med-MoEの学習は、マルチモーダル医療アライメント、命令チューニングとルーティング、ドメイン固有のMoEチューニングの3つのステップで構成されている。
我々のモデルは最先端のベースラインに匹敵する性能を達成できる。
論文 参考訳(メタデータ) (2024-04-16T02:35:17Z) - Specialty-Oriented Generalist Medical AI for Chest CT Screening [14.31187762890342]
本稿では,肺がん検診および関連する課題に応用したM3FM(Maltimodal-multitask foundation model)を提案する。
M3FMは、最先端のシングルモーダルタスク特化モデルより一貫して優れている。
専門的な汎用的な医療AIモデルとして、M3FMは、他の医療分野における同様のブレークスルーの道を開く。
論文 参考訳(メタデータ) (2023-04-03T20:19:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。