論文の概要: Medical SAM3: A Foundation Model for Universal Prompt-Driven Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2601.10880v1
- Date: Thu, 15 Jan 2026 22:18:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-19 20:21:50.300261
- Title: Medical SAM3: A Foundation Model for Universal Prompt-Driven Medical Image Segmentation
- Title(参考訳): Medical SAM3:Universal Prompt-Driven Medical Image Segmentationの基礎モデル
- Authors: Chongcong Jiang, Tianxingjian Ding, Chuhan Song, Jiachen Tu, Ziyang Yan, Yihua Shao, Zhenyi Wang, Yuzhang Shang, Tianyu Han, Yu Tian,
- Abstract要約: 本稿では,ユニバーサル・プロンプト駆動型医用画像セグメンテーションの基礎モデルであるMedical SAM3を提案する。
10の医療画像モダリティにまたがる33のデータセットでSAM3のモデルパラメータを微調整することで、Merical SAM3は堅牢なドメイン固有表現を取得する。
本研究は,医療画像のための汎用的テキスト誘導セグメンテーション基盤モデルとして医療SAM3を構築した。
- 参考スコア(独自算出の注目度): 23.51581338204315
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Promptable segmentation foundation models such as SAM3 have demonstrated strong generalization capabilities through interactive and concept-based prompting. However, their direct applicability to medical image segmentation remains limited by severe domain shifts, the absence of privileged spatial prompts, and the need to reason over complex anatomical and volumetric structures. Here we present Medical SAM3, a foundation model for universal prompt-driven medical image segmentation, obtained by fully fine-tuning SAM3 on large-scale, heterogeneous 2D and 3D medical imaging datasets with paired segmentation masks and text prompts. Through a systematic analysis of vanilla SAM3, we observe that its performance degrades substantially on medical data, with its apparent competitiveness largely relying on strong geometric priors such as ground-truth-derived bounding boxes. These findings motivate full model adaptation beyond prompt engineering alone. By fine-tuning SAM3's model parameters on 33 datasets spanning 10 medical imaging modalities, Medical SAM3 acquires robust domain-specific representations while preserving prompt-driven flexibility. Extensive experiments across organs, imaging modalities, and dimensionalities demonstrate consistent and significant performance gains, particularly in challenging scenarios characterized by semantic ambiguity, complex morphology, and long-range 3D context. Our results establish Medical SAM3 as a universal, text-guided segmentation foundation model for medical imaging and highlight the importance of holistic model adaptation for achieving robust prompt-driven segmentation under severe domain shift. Code and model will be made available at https://github.com/AIM-Research-Lab/Medical-SAM3.
- Abstract(参考訳): SAM3のような確率的セグメンテーション基礎モデルは、対話的および概念に基づくプロンプトを通じて強力な一般化能力を示した。
しかし、医療画像分割への直接的な適用性は、厳しい領域シフト、特権的な空間的プロンプトの欠如、複雑な解剖学的・体積的構造を論じる必要性によって制限されている。
本稿では,大規模かつ異種な2次元および3次元の医用画像データセットに,一対のセグメンテーションマスクとテキストプロンプトを用いたSAM3の完全微調整により得られた,ユニバーサル・プロンプト駆動型医用画像セグメンテーションの基礎モデルであるSAM3について述べる。
バニラSAM3の系統的解析により,その性能は医学的データに大きく依存し,その明らかな競争性は,地中構造に起因した境界箱のような強い幾何学的先行に大きく依存していることがわかった。
これらの知見は、プロンプトエンジニアリング以外の完全なモデル適応を動機付けている。
10の医用画像モダリティにまたがる33のデータセットでSAM3のモデルパラメータを微調整することで、Merical SAM3は、プロンプト駆動の柔軟性を維持しながら、堅牢なドメイン固有の表現を取得する。
特に、意味的曖昧さ、複雑な形態学、長距離3Dコンテキストを特徴とする挑戦的なシナリオにおいて、臓器、画像モダリティ、次元にわたる広範囲にわたる実験は、一貫性があり重要なパフォーマンス向上を示す。
医用SAM3を医用画像の普遍的テキスト誘導セグメンテーション基盤モデルとして確立し, 厳密なドメインシフト下での堅牢なプロンプト駆動セグメンテーションを実現するための総合的モデル適応の重要性を強調した。
コードとモデルはhttps://github.com/AIM-Research-Lab/Medical-SAM3.comで公開される。
関連論文リスト
- VesSAM: Efficient Multi-Prompting for Segmenting Complex Vessel [68.24765319399286]
本稿では,2次元血管セグメンテーションに適した,強力で効率的なフレームワークであるVesSAMを提案する。
VesSAMは、(1)局所的なテクスチャ機能を強化する畳み込みアダプタ、(2)解剖学的プロンプトを融合するマルチプロンプトエンコーダ、(3)ジャグアーティファクトを減らす軽量マスクデコーダを統合する。
VesSAMは、最先端のPEFTベースのSAMを10%以上のDiceと13%のIoUで一貫して上回っている。
論文 参考訳(メタデータ) (2025-11-02T15:47:05Z) - TAGS: 3D Tumor-Adaptive Guidance for SAM [20.390209826784087]
本稿では, SAM 用腫瘍適応ガイダンス (TAGS: tumor Adaptive Guidance for SAM) という適応フレームワークを提案する。
マルチプロンプト融合により、2D FMを3D医療タスクにアンロックする。
我々のモデルは最先端の医療画像セグメンテーションモデルを上回る。
論文 参考訳(メタデータ) (2025-05-21T04:02:17Z) - Few-Shot Adaptation of Training-Free Foundation Model for 3D Medical Image Segmentation [8.78725593323412]
FATE-SAM (Few-shot Adaptation of Training-frEe SAM) は、3次元医用画像セグメンテーションに高度なセグメンテーションモデル2 (SAM2) を適用するために設計された新しい手法である。
FATE-SAMはSAM2の事前訓練されたモジュールを再組み立てし、少数のサポート例を活用する。
複数の医用画像データセット上でFATE-SAMを評価し、教師付き学習方法、ゼロショットSAMアプローチ、微調整医療SAM手法と比較した。
論文 参考訳(メタデータ) (2025-01-15T20:44:21Z) - Mask-Enhanced Segment Anything Model for Tumor Lesion Semantic Segmentation [48.107348956719775]
Mask-Enhanced SAM (M-SAM) は, 腫瘍の3次元セグメント化に適した革新的なアーキテクチャである。
本稿では,M-SAM内におけるMask-Enhanced Adapter (MEA) を提案する。
我々のM-SAMは高いセグメンテーション精度を達成し、またロバストな一般化を示す。
論文 参考訳(メタデータ) (2024-03-09T13:37:02Z) - SAM-Med3D: Towards General-purpose Segmentation Models for Volumetric Medical Images [35.83393121891959]
ボリューム医療画像の汎用セグメンテーションのためのSAM-Med3Dを提案する。
SAM-Med3Dは様々な解剖学的構造と病変を正確に分類することができる。
提案手法は,医療資源を多用した汎用医療AIの開発に活用できることを実証するものである。
論文 参考訳(メタデータ) (2023-10-23T17:57:36Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - AutoProSAM: Automated Prompting SAM for 3D Multi-Organ Segmentation [11.149807995830255]
Segment Anything Model (SAM)は、画像セグメンテーションのための先駆的なプロンプトベースの基礎モデルの一つである。
近年の研究では、SAMはもともと2次元の自然画像用に設計されており、3次元の医用画像分割作業に最適化されていることが示されている。
本稿では,これらの課題を克服するため,AutoProSAMと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-28T23:23:53Z) - 3DSAM-adapter: Holistic adaptation of SAM from 2D to 3D for promptable tumor segmentation [52.699139151447945]
医用画像の領域分割を行うために, SAMを2次元から3次元に変換する新しい適応法を提案する。
本モデルでは, 腎腫瘍, 膵腫瘍, 大腸癌の3つのタスクのうち8.25%, 29.87%, 10.11%の3つのタスクにおいて, ドメイン・オブ・ザ・アーティヴ・メディカル・イメージ・セグメンテーション・モデルより優れ, 肝腫瘍セグメンテーションでも同様の性能が得られる。
論文 参考訳(メタデータ) (2023-06-23T12:09:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。