論文の概要: Med-LEGO: Editing and Adapting toward Generalist Medical Image Diagnosis
- arxiv url: http://arxiv.org/abs/2503.01164v1
- Date: Mon, 03 Mar 2025 04:27:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:18:36.796986
- Title: Med-LEGO: Editing and Adapting toward Generalist Medical Image Diagnosis
- Title(参考訳): Med-LEGO: 一般的な医用画像診断への編集と適応
- Authors: Yitao Zhu, Yuan Yin, Jiaming Li, Mengjie Xu, Zihao Zhao, Honglin Xiong, Sheng Wang, Qian Wang,
- Abstract要約: Med-LEGOは、ジェネラリストCADモデルのシームレスな統合や更新を可能にする、トレーニング不要のフレームワークである。
我々の実験では、Med-LEGOは、クロスドメインとインドメインの両方の医療タスクにおいて、既存の手法よりも優れています。
- 参考スコア(独自算出の注目度): 17.10843389390131
- License:
- Abstract: The adoption of visual foundation models has become a common practice in computer-aided diagnosis (CAD). While these foundation models provide a viable solution for creating generalist medical AI, privacy concerns make it difficult to pre-train or continuously update such models across multiple domains and datasets, leading many studies to focus on specialist models. To address this challenge, we propose Med-LEGO, a training-free framework that enables the seamless integration or updating of a generalist CAD model by combining multiple specialist models, similar to assembling LEGO bricks. Med-LEGO enhances LoRA (low-rank adaptation) by incorporating singular value decomposition (SVD) to efficiently capture the domain expertise of each specialist model with minimal additional parameters. By combining these adapted weights through simple operations, Med-LEGO allows for the easy integration or modification of specific diagnostic capabilities without the need for original data or retraining. Finally, the combined model can be further adapted to new diagnostic tasks, making it a versatile generalist model. Our extensive experiments demonstrate that Med-LEGO outperforms existing methods in both cross-domain and in-domain medical tasks while using only 0.18% of full model parameters. These merged models show better convergence and generalization to new tasks, providing an effective path toward generalist medical AI.
- Abstract(参考訳): コンピュータ支援診断(CAD)では,視覚基盤モデルの採用が一般的となっている。
これらの基盤モデルは、汎用的な医療AIを作成するための実行可能なソリューションを提供するが、プライバシに関する懸念は、複数のドメインやデータセットにわたるモデルの事前トレーニングや継続的な更新を困難にしているため、多くの研究がスペシャリストモデルに焦点を当てている。
この課題に対処するために,汎用CADモデルのシームレスな統合や更新を可能にするトレーニングフリーフレームワークであるMed-LEGOを提案する。
Med-LEGOは、特異値分解(SVD)を導入してLoRA(ローランク適応)を強化し、最小限の追加パラメータで各専門家モデルのドメイン専門知識を効率的に取得する。
これらの適応された重みを単純な操作で組み合わせることで、Med-LEGOはオリジナルのデータや再トレーニングを必要とせずに、特定の診断機能を簡単に統合または修正することができる。
最後に、組み合わせたモデルが新たな診断タスクにさらに適応し、汎用的なジェネラリストモデルとなる。
我々の広範な実験により、Med-LEGOはクロスドメインとインドメインの両方の医療タスクにおいて既存の手法よりも優れており、完全なモデルパラメータの0.18%しか使用していません。
これらの統合モデルは、新しいタスクへのより良い収束と一般化を示し、汎用的な医療AIへの効果的な経路を提供する。
関連論文リスト
- KA$^2$ER: Knowledge Adaptive Amalgamation of ExpeRts for Medical Images Segmentation [5.807887214293438]
本稿では,多元的基礎モデルを学習し,複数のエキスパートモデルの協調的な目標に対処することを目的としたアダプティブ・アマルガメーション・ナレッジ・フレームワークを提案する。
特に、まず、各タスクに対してnnUNetベースのエキスパートモデルをトレーニングし、トレーニング済みのSwinUNTERをターゲット基盤モデルとして再利用する。
隠蔽層内の階層的アテンション機構は、すべての専門家の隠蔽層の特徴知識にターゲットモデルの適応的なマージを実現するように設計されている。
論文 参考訳(メタデータ) (2024-10-28T14:49:17Z) - Repurposing Foundation Model for Generalizable Medical Time Series Classification [16.21546283978257]
FORMEDは、事前訓練されたバックボーンを利用する基礎分類モデルである。
チャネルの数、サンプルの長さ、医療タスクに関係なく、見当たらないMedTSデータセットにシームレスに適応できる。
本結果は,多種多様なMedTS分類タスクに対して,多種多様かつスケーラブルなモデルとして構成され,将来のMedTS解析研究の基盤モデルとして位置づけられる。
論文 参考訳(メタデータ) (2024-10-03T23:50:04Z) - LoRKD: Low-Rank Knowledge Decomposition for Medical Foundation Models [59.961172635689664]
知識分解」は、特定の医療課題のパフォーマンス向上を目的としている。
我々はLow-Rank Knowledge Decomposition(LoRKD)という新しいフレームワークを提案する。
LoRKDは、低ランクのエキスパートモジュールと効率的な知識分離畳み込みを組み込むことで、グラデーションを異なるタスクから明確に分離する。
論文 参考訳(メタデータ) (2024-09-29T03:56:21Z) - FEDKIM: Adaptive Federated Knowledge Injection into Medical Foundation Models [54.09244105445476]
本研究は,フェデレート・ラーニング・フレームワーク内で医療基盤モデルを拡張するための新しい知識注入手法であるFedKIMを紹介する。
FedKIMは軽量なローカルモデルを活用して、プライベートデータから医療知識を抽出し、この知識を集中基盤モデルに統合する。
7つのモードで12タスクを対象に実験を行い,FedKIMの有効性について検討した。
論文 参考訳(メタデータ) (2024-08-17T15:42:29Z) - Med-MoE: Mixture of Domain-Specific Experts for Lightweight Medical Vision-Language Models [17.643421997037514]
差別的, 生成的両マルチモーダル医療課題に対処する新しい枠組みを提案する。
Med-MoEの学習は、マルチモーダル医療アライメント、命令チューニングとルーティング、ドメイン固有のMoEチューニングの3つのステップで構成されている。
我々のモデルは最先端のベースラインに匹敵する性能を達成できる。
論文 参考訳(メタデータ) (2024-04-16T02:35:17Z) - Towards a clinically accessible radiology foundation model: open-access and lightweight, with automated evaluation [113.5002649181103]
オープンソースの小型マルチモーダルモデル(SMM)を訓練し、放射線学における未測定臨床ニーズに対する能力ギャップを埋める。
トレーニングのために,697万以上の画像テキストペアからなる大規模なデータセットを組み立てる。
評価のために,GPT-4に基づく実測値CheXpromptを提案する。
LlaVA-Radの推論は高速で、単一のV100 GPU上でプライベート設定で実行できる。
論文 参考訳(メタデータ) (2024-03-12T18:12:02Z) - OpenMEDLab: An Open-source Platform for Multi-modality Foundation Models
in Medicine [55.29668193415034]
マルチモダリティ基盤モデルのためのオープンソースプラットフォームであるOpenMEDLabについて紹介する。
これは、最前線臨床および生体情報学応用のための大規模言語とビジョンモデルを刺激し、微調整する先駆的な試みの解決策をカプセル化する。
様々な医用画像のモダリティ、臨床テキスト、タンパク質工学など、事前訓練された基礎モデル群へのアクセスが可能である。
論文 参考訳(メタデータ) (2024-02-28T03:51:02Z) - DGM-DR: Domain Generalization with Mutual Information Regularized
Diabetic Retinopathy Classification [40.35834579068518]
トレーニングとテストデータのドメインシフトは、一般的なディープラーニングモデルをトレーニングする上で大きな課題となる。
医用画像領域に事前訓練されたモデルとしてモデル目的関数を再確立するDG法を提案する。
提案手法は,従来の最先端技術よりも平均精度5.25%,標準偏差が低い。
論文 参考訳(メタデータ) (2023-09-18T11:17:13Z) - Towards Medical Artificial General Intelligence via Knowledge-Enhanced
Multimodal Pretraining [121.89793208683625]
医療人工知能(MAGI)は、1つの基礎モデルで異なる医療課題を解くことができる。
我々は、Micical-knedge-enhanced mulTimOdal pretRaining (motoR)と呼ばれる新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-04-26T01:26:19Z) - Domain Generalization on Medical Imaging Classification using Episodic
Training with Task Augmentation [62.49837463676111]
本稿では,医用画像分類におけるタスク強化によるエピソードトレーニングの新たな手法を提案する。
実際の医療展開において、限られた数のソースドメインによって動機付けられ、ユニークなタスクレベルのオーバーフィッティングを検討します。
論文 参考訳(メタデータ) (2021-06-13T03:56:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。