論文の概要: MedSeqFT: Sequential Fine-tuning Foundation Models for 3D Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2509.06096v1
- Date: Sun, 07 Sep 2025 15:22:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.856397
- Title: MedSeqFT: Sequential Fine-tuning Foundation Models for 3D Medical Image Segmentation
- Title(参考訳): MedSeqFT:3次元医用画像セグメンテーションのための連続微調整基礎モデル
- Authors: Yiwen Ye, Yicheng Wu, Xiangde Luo, He Zhang, Ziyang Chen, Ting Dang, Yanning Zhang, Yong Xia,
- Abstract要約: MedSeqFTは、医用画像解析のためのシーケンシャルな微調整フレームワークである。
事前訓練されたモデルを新しいタスクに適応させ、表現能力を改善する。
最先端の微調整戦略を一貫して上回ります。
- 参考スコア(独自算出の注目度): 55.37355146924576
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Foundation models have become a promising paradigm for advancing medical image analysis, particularly for segmentation tasks where downstream applications often emerge sequentially. Existing fine-tuning strategies, however, remain limited: parallel fine-tuning isolates tasks and fails to exploit shared knowledge, while multi-task fine-tuning requires simultaneous access to all datasets and struggles with incremental task integration. To address these challenges, we propose MedSeqFT, a sequential fine-tuning framework that progressively adapts pre-trained models to new tasks while refining their representational capacity. MedSeqFT introduces two core components: (1) Maximum Data Similarity (MDS) selection, which identifies downstream samples most representative of the original pre-training distribution to preserve general knowledge, and (2) Knowledge and Generalization Retention Fine-Tuning (K&G RFT), a LoRA-based knowledge distillation scheme that balances task-specific adaptation with the retention of pre-trained knowledge. Extensive experiments on two multi-task datasets covering ten 3D segmentation tasks demonstrate that MedSeqFT consistently outperforms state-of-the-art fine-tuning strategies, yielding substantial performance gains (e.g., an average Dice improvement of 3.0%). Furthermore, evaluations on two unseen tasks (COVID-19-20 and Kidney) verify that MedSeqFT enhances transferability, particularly for tumor segmentation. Visual analyses of loss landscapes and parameter variations further highlight the robustness of MedSeqFT. These results establish sequential fine-tuning as an effective, knowledge-retentive paradigm for adapting foundation models to evolving clinical tasks. Code will be released.
- Abstract(参考訳): 基礎モデルは、医用画像解析の進歩、特に下流のアプリケーションが順次出現するセグメンテーションタスクにおいて、有望なパラダイムとなっている。
並列微調整はタスクを分離し、共有知識を活用できないのに対して、マルチタスク微調整はすべてのデータセットに同時アクセスし、インクリメンタルなタスク統合に苦労する必要がある。
これらの課題に対処するため、我々はMedSeqFTを提案する。MedSeqFTは、事前学習されたモデルを新しいタスクに段階的に適応し、表現能力を改善する。
MedSeqFTは,(1)最大データ類似度(MDS)の選択,(2)学習前分布の最も代表的な下流サンプルの同定,(2)学習前知識の保持とタスク固有の適応のバランスをとるLoRAベースの知識蒸留スキームK&G RFTを紹介した。
10つの3Dセグメンテーションタスクをカバーする2つのマルチタスクデータセットに対する大規模な実験は、MedSeqFTが最先端の微調整戦略を一貫して上回り、パフォーマンスが大幅に向上することを示した(例えば、平均Diceの改善率は3.0%)。
さらに、未確認の2つのタスク(COVID-19-20とKidney)の評価では、MedSeqFTは、特に腫瘍のセグメンテーションにおいて、転送性を高めることが確認されている。
損失景観とパラメータ変動の視覚的解析により,MedSeqFTのロバスト性をさらに強調する。
これらの結果は、基礎モデルを臨床タスクに適応するための効果的な知識抑制パラダイムとして、シーケンシャルな微調整を確立している。
コードはリリースされる。
関連論文リスト
- impuTMAE: Multi-modal Transformer with Masked Pre-training for Missing Modalities Imputation in Cancer Survival Prediction [75.43342771863837]
我々は,効率的なマルチモーダル事前学習戦略を備えた新しいトランスフォーマーに基づくエンドツーエンドアプローチである impuTMAE を紹介する。
マスクされたパッチを再構築することで、モダリティの欠如を同時に示唆しながら、モダリティ間の相互作用とモダリティ内相互作用を学習する。
本モデルは,TGA-GBM/LGGとBraTSデータセットを用いたグリオーマ生存予測のために,異種不完全データに基づいて事前訓練を行った。
論文 参考訳(メタデータ) (2025-08-08T10:01:16Z) - FedGIN: Federated Learning with Dynamic Global Intensity Non-linear Augmentation for Organ Segmentation using Multi-modal Images [0.0]
医用画像のセグメンテーションは、AIによる診断、手術計画、治療監視において重要な役割を果たす。
患者データを共有することなくマルチモーダル臓器分割を可能にするフェデレートラーニングフレームワークであるFedGINを提案する。
論文 参考訳(メタデータ) (2025-08-07T08:16:35Z) - Test-time Adaptation for Foundation Medical Segmentation Model without Parametric Updates [27.933665582178115]
基礎医療セグメンテーションモデルは、MedSAMが最も人気があり、臓器や病変をまたいで有望なパフォーマンスを実現している。
MedSAMは、複雑な構造と外観を持つ特定の病変に対する妥協されたパフォーマンスと、バウンディングボックスのプロンプトによる摂動に悩まされている。
本稿では,分布近似型潜在条件付きランダム場損失とエントロピー最小化損失を併用して,後続予測確率の因子化条件付き確率を最大化する手法を提案する。
論文 参考訳(メタデータ) (2025-04-02T03:03:34Z) - Repurposing Foundation Model for Generalizable Medical Time Series Classification [16.21546283978257]
FORMEDは、バックボーン基盤モデルを再利用して、目に見えないデータセット上で高度に一般化可能なMedTS分類を可能にするフレームワークである。
我々は,5種類のMedTSデータセットを用いて,11のタスク特化モデル (TSM) と4のタスク特化適応 (TSA) 手法のベンチマークを行った。
以上の結果から,F1スコア(ADFTDデータセット上で)を最大35%向上させることができた。
論文 参考訳(メタデータ) (2024-10-03T23:50:04Z) - PMT: Progressive Mean Teacher via Exploring Temporal Consistency for Semi-Supervised Medical Image Segmentation [51.509573838103854]
医用画像セグメンテーションのための半教師付き学習フレームワークであるプログレッシブ平均教師(PMT)を提案する。
我々のPMTは、トレーニングプロセスにおいて、堅牢で多様な特徴を学習することで、高忠実な擬似ラベルを生成する。
CT と MRI の異なる2つのデータセットに対する実験結果から,本手法が最先端の医用画像分割法より優れていることが示された。
論文 参考訳(メタデータ) (2024-09-08T15:02:25Z) - Unified Multi-modal Diagnostic Framework with Reconstruction Pre-training and Heterogeneity-combat Tuning [14.556686415877602]
本稿では,事前トレーニングと下流チューニングを調整した統一医療マルチモーダル診断(UMD)フレームワークを提案する。
具体的には,多段階再構成事前訓練(MR-Pretraining)戦略を提案する。
特に、TD-Calibは、下流データセットの分布に関する事前訓練されたモデルを微調整し、GM-Coordは、異なるモードの動的最適化状況に応じて勾配重みを調整する。
論文 参考訳(メタデータ) (2024-04-09T06:47:44Z) - Predicting Infant Brain Connectivity with Federated Multi-Trajectory
GNNs using Scarce Data [54.55126643084341]
既存のディープラーニングソリューションには,3つの大きな制限がある。
我々はフェデレートグラフベースの多軌道進化ネットワークであるFedGmTE-Net++を紹介する。
フェデレーションの力を利用して、限られたデータセットを持つ多種多様な病院の地域学習を集約する。
論文 参考訳(メタデータ) (2024-01-01T10:20:01Z) - The effect of data augmentation and 3D-CNN depth on Alzheimer's Disease
detection [51.697248252191265]
この研究は、データハンドリング、実験設計、モデル評価に関するベストプラクティスを要約し、厳密に観察する。
我々は、アルツハイマー病(AD)の検出に焦点を当て、医療における課題のパラダイム的な例として機能する。
このフレームワークでは,3つの異なるデータ拡張戦略と5つの異なる3D CNNアーキテクチャを考慮し,予測15モデルを訓練する。
論文 参考訳(メタデータ) (2023-09-13T10:40:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。