論文の概要: MedSAMix: A Training-Free Model Merging Approach for Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2508.11032v1
- Date: Thu, 14 Aug 2025 19:35:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-18 14:51:23.654023
- Title: MedSAMix: A Training-Free Model Merging Approach for Medical Image Segmentation
- Title(参考訳): MedSAMix:医療画像セグメンテーションのためのトレーニングフリーモデルマージアプローチ
- Authors: Yanwu Yang, Guinan Su, Jiesi Hu, Francesco Sammarco, Jonas Geiping, Thomas Wolfers,
- Abstract要約: 医用画像セグメンテーションのためのトレーニングフリーモデルマージ手法であるMedSAMixを提案する。
MedSAMixは、ドメイン固有の精度と一般化の両方において、一貫して性能を改善していることを示す。
臨床応用として,ドメイン固有性と一般化可能性の要求を満たすための2つの体制を開発する。
- 参考スコア(独自算出の注目度): 21.766481181140527
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Universal medical image segmentation models have emerged as a promising paradigm due to their strong generalizability across diverse tasks, showing great potential for a wide range of clinical applications. This potential has been partly driven by the success of general-purpose vision models such as the Segment Anything Model (SAM), which has inspired the development of various fine-tuned variants for medical segmentation tasks. However, fine-tuned variants like MedSAM are trained on comparatively limited medical imaging data that often suffers from heterogeneity, scarce annotations, and distributional shifts. These challenges limit their ability to generalize across a wide range of medical segmentation tasks. In this regard, we propose MedSAMix, a training-free model merging method that integrates the strengths of both generalist models (e.g., SAM) and specialist models (e.g., MedSAM) for medical image segmentation. In contrast to traditional model merging approaches that rely on manual configuration and often result in suboptimal outcomes, we propose a zero-order optimization method to automatically discover optimal layer-wise merging solutions. Furthermore, for clinical applications, we develop two regimes to meet the demand of domain-specificity and generalizability in different scenarios by single-task optimization and multi-objective optimization respectively. Extensive evaluations on 25 medical segmentation tasks demonstrate that MedSAMix effectively mitigates model bias and consistently improves performance in both domain-specific accuracy and generalization, achieving improvements of 6.67% on specialized tasks and 4.37% on multi-task evaluations.
- Abstract(参考訳): ユニバーサル・メディカル・イメージ・セグメンテーション・モデルは、様々なタスクにまたがる強力な一般化可能性から、将来性のあるパラダイムとして登場し、幅広い臨床応用の可能性を示している。
このポテンシャルは、医学的セグメンテーションタスクのための様々な微調整された変種の開発にインスピレーションを与えたSAM(Segment Anything Model)のような汎用視覚モデルの成功によってもたらされた。
しかし、MedSAMのような微調整された変種は、比較的限られた医療画像データに基づいて訓練されている。
これらの課題は、広範囲にわたる医学的セグメンテーションタスクを一般化する能力を制限する。
そこで本研究では,一般モデル(例,SAM)と専門モデル(例,MedSAM)の両長所を統合した,医用画像分割のためのトレーニングフリーモデルマージ手法であるMedSAMixを提案する。
手動構成に依存し、しばしば最適でない結果をもたらす従来のモデルマージ手法とは対照的に、最適なレイヤワイドマージソリューションを自動的に検出するゼロオーダー最適化法を提案する。
さらに,臨床応用においては,各シナリオにおけるドメイン固有性および一般化可能性の要求を満たすために,それぞれ単一タスク最適化と多目的最適化という2つの方法を開発した。
25の医療セグメンテーションタスクに対する広範囲な評価は、MedSAMixがモデルバイアスを効果的に軽減し、ドメイン固有の精度と一般化の両方のパフォーマンスを継続的に改善し、特殊タスクの6.67%、マルチタスクの評価の4.37%の改善を実現していることを示している。
関連論文リスト
- Multimodal Causal-Driven Representation Learning for Generalizable Medical Image Segmentation [56.52520416420957]
医用画像セグメンテーションにおける領域一般化に取り組むために, MCDRL(Multimodal Causal-Driven Representation Learning)を提案する。
MCDRLは競合する手法より一貫して優れ、セグメンテーション精度が優れ、堅牢な一般化性を示す。
論文 参考訳(メタデータ) (2025-08-07T03:41:41Z) - Dynamically evolving segment anything model with continuous learning for medical image segmentation [50.92344083895528]
ダイナミックに進化する医療画像セグメンテーションモデルであるEvoSAMを紹介する。
EvoSAMは、継続的に拡張されるシナリオとタスクの配列から新しい知識を蓄積する。
血管セグメンテーションに関する外科医による実験により、EvoSAMはユーザプロンプトに基づいてセグメンテーション効率を高めることが確認された。
論文 参考訳(メタデータ) (2025-03-08T14:37:52Z) - Med-LEGO: Editing and Adapting toward Generalist Medical Image Diagnosis [17.10843389390131]
Med-LEGOは、ジェネラリストCADモデルのシームレスな統合や更新を可能にする、トレーニング不要のフレームワークである。
我々の実験では、Med-LEGOは、クロスドメインとインドメインの両方の医療タスクにおいて、既存の手法よりも優れています。
論文 参考訳(メタデータ) (2025-03-03T04:27:11Z) - Efficient MedSAMs: Segment Anything in Medical Images on Laptop [69.28565867103542]
我々は,迅速な医用画像のセグメンテーションに特化した初の国際コンペを組織した。
トップチームは軽量なセグメンテーション基盤モデルを開発し、効率的な推論パイプラインを実装した。
最高のパフォーマンスのアルゴリズムは、臨床導入を促進するために、ユーザフレンドリーなインターフェースを備えたオープンソースソフトウェアに組み込まれている。
論文 参考訳(メタデータ) (2024-12-20T17:33:35Z) - SAM-Med3D-MoE: Towards a Non-Forgetting Segment Anything Model via Mixture of Experts for 3D Medical Image Segmentation [36.95030121663565]
Supervised Finetuning (SFT) は、タスク固有の下流タスクに基礎モデルを適用する効果的な方法として機能する。
本稿では,タスク固有の微調整モデルと基礎モデルとをシームレスに統合する新しいフレームワークSAM-Med3D-MoEを提案する。
実験では, SAM-Med3D-MoEの有効性を実証し, 平均Dice性能は15種類のクラスで53から56.4に向上した。
論文 参考訳(メタデータ) (2024-07-06T03:03:45Z) - Improving Segment Anything on the Fly: Auxiliary Online Learning and Adaptive Fusion for Medical Image Segmentation [52.172885882728174]
医療画像の文脈では、SAMがそのセグメンテーション予測を生成した後、人間の専門家が特定のテストサンプルのセグメンテーションを修正することは珍しくない。
我々は、オンライン機械学習の利点を活用して、テスト期間中にSegment Anything(SA)を強化する新しいアプローチを導入する。
医用画像におけるSAのセグメンテーション品質を改善することを目的として,オンライン学習のための修正アノテーションを用いた。
論文 参考訳(メタデータ) (2024-06-03T03:16:25Z) - Cheap Lunch for Medical Image Segmentation by Fine-tuning SAM on Few
Exemplars [19.725817146049707]
Segment Anything Model (SAM) はスケールアップセグメンテーションモデルの顕著な機能を示した。
しかし, 医療領域における基礎モデルの導入は, 十分なデータのラベル付けが困難で費用がかかるため, 課題となっている。
本稿では,限られた数の例を用いてSAMを微調整するための効率的かつ実用的な手法を提案する。
論文 参考訳(メタデータ) (2023-08-27T15:21:25Z) - Segment Anything in Medical Images [21.43661408153244]
医用画像の普遍的分割を可能にする基盤モデルであるMedSAMについて述べる。
このモデルは、1,570,263枚の画像マスク対を持つ大規模医療画像データセット上で開発され、10種類の画像モダリティと30以上のがんタイプをカバーする。
論文 参考訳(メタデータ) (2023-04-24T17:56:12Z) - Ambiguous Medical Image Segmentation using Diffusion Models [60.378180265885945]
我々は,グループ洞察の分布を学習することで,複数の可算出力を生成する単一拡散モデルに基づくアプローチを提案する。
提案モデルでは,拡散の固有のサンプリングプロセスを利用してセグメンテーションマスクの分布を生成する。
その結果,提案手法は既存の最先端曖昧なセグメンテーションネットワークよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-04-10T17:58:22Z) - MedSegDiff-V2: Diffusion based Medical Image Segmentation with
Transformer [53.575573940055335]
我々は、MedSegDiff-V2と呼ばれるトランスフォーマーベースの拡散フレームワークを提案する。
画像の異なる20種類の画像分割作業において,その有効性を検証する。
論文 参考訳(メタデータ) (2023-01-19T03:42:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。