論文の概要: Comparing SAM 2 and SAM 3 for Zero-Shot Segmentation of 3D Medical Data
- arxiv url: http://arxiv.org/abs/2511.21926v1
- Date: Wed, 26 Nov 2025 21:36:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.301763
- Title: Comparing SAM 2 and SAM 3 for Zero-Shot Segmentation of 3D Medical Data
- Title(参考訳): 3次元医療データのゼロショットセグメンテーションにおけるSAM2とSAM3の比較
- Authors: Satrajit Chakrabarty, Ravi Soni,
- Abstract要約: SAM、SAM 2、および最近リリースされたSAM 3を含むプロンプト可能なセグメンテーションの基礎モデルは、医療画像のゼロショットセグメンテーションに再び関心を寄せている。
そこで本研究では, SAM 2 と SAM 3 を比較して, 純粋視覚的プロンプト下での3次元医用ボリュームとビデオのゼロショットセグメンテーションについて検討した。
両モデルを,54の解剖学的構造,病理,手術器具を含む16の公開データセットでベンチマークした。
- 参考スコア(独自算出の注目度): 0.3867363075280543
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Foundation models for promptable segmentation, including SAM, SAM 2, and the recently released SAM 3, have renewed interest in zero-shot segmentation of medical imaging. Although these models perform strongly on natural images, their behavior on medical data remains insufficiently characterized. While SAM 2 is widely used for annotation in 3D medical workflows, SAM 3 introduces a new perception backbone, detector-tracker pipeline, and concept-level prompting that may alter its behavior under spatial prompts. We present the first controlled comparison of SAM 2 and SAM 3 for zero-shot segmentation of 3D medical volumes and videos under purely visual prompting, with concept mechanisms disabled. We assess whether SAM 3 can serve as an out-of-the-box replacement for SAM 2 without customization. We benchmark both models on 16 public datasets (CT, MRI, 3D and cine ultrasound, endoscopy) covering 54 anatomical structures, pathologies, and surgical instruments. Prompts are restricted to the first frame and use four modes: single-click, multi-click, bounding box, and dense mask. This design standardizes preprocessing, prompt placement, propagation rules, and metric computation to disentangle prompt interpretation from propagation. Prompt-frame analysis shows that SAM 3 provides substantially stronger initialization than SAM 2 for click prompting across most structures. In full-volume analysis, SAM 3 retains this advantage for complex, vascular, and soft-tissue anatomies, emerging as the more versatile general-purpose segmenter. While SAM 2 remains competitive for compact, rigid organs under strong spatial guidance, it frequently fails on challenging targets where SAM 3 succeeds. Overall, our results suggest that SAM 3 is the superior default choice for most medical segmentation tasks, particularly those involving sparse user interaction or complex anatomical topology.
- Abstract(参考訳): SAM、SAM 2、および最近リリースされたSAM 3を含むプロンプト可能なセグメンテーションの基礎モデルは、医療画像のゼロショットセグメンテーションに再び関心を寄せている。
これらのモデルは、自然画像に対して強く作用するが、医療データに対するそれらの振る舞いは、まだ不十分である。
SAM 2は3D医療ワークフローにおけるアノテーションとして広く使われているが、SAM 3では新しい知覚バックボーン、検出器・トラッカー・パイプライン、空間的プロンプトの下での振る舞いを変える概念レベルのプロンプトが導入されている。
本研究は3次元医用ボリュームとビデオのゼロショットセグメンテーションのためのSAM 2とSAM 3を視覚的プロンプトで比較し,概念的メカニズムの無効化を図ったものである。
SAM 3 がカスタマイズなしで SAM 2 の代替品として機能するかどうかを評価する。
両モデルとも, 解剖学的構造, 病理組織, 手術器具を対象とし, 16のパブリックデータセット(CT, MRI, 3D, 血管超音波, 内視鏡)でベンチマークを行った。
プロンプトは最初のフレームに制限され、シングルクリック、マルチクリック、バウンディングボックス、密集マスクの4つのモードを使用する。
この設計は、前処理、プロンプト配置、伝搬規則、およびメートル法計算を標準化し、プロンプトからプロンプト解釈をアンタングルする。
Prompt-frame分析により、SAM 3はSAM 2よりもはるかに強力な初期化を提供し、ほとんどの構造をまたがるクリックのプロンプトを提供することが示された。
全量分析においてSAM 3は、より汎用的な汎用セグメンタとして出現する複雑な、血管的、軟質の解剖学に対して、この優位性を維持している。
SAM 2は、強い空間誘導の下で、コンパクトで硬い臓器に対して競争力を持つが、SAM 3が成功する挑戦的なターゲットでは、しばしば失敗する。
以上の結果から,SAM 3は医療セグメント化タスク,特にスパースユーザインタラクションや複雑な解剖学的トポロジに関わるタスクにおいて,より優れたデフォルト選択である可能性が示唆された。
関連論文リスト
- VesSAM: Efficient Multi-Prompting for Segmenting Complex Vessel [68.24765319399286]
本稿では,2次元血管セグメンテーションに適した,強力で効率的なフレームワークであるVesSAMを提案する。
VesSAMは、(1)局所的なテクスチャ機能を強化する畳み込みアダプタ、(2)解剖学的プロンプトを融合するマルチプロンプトエンコーダ、(3)ジャグアーティファクトを減らす軽量マスクデコーダを統合する。
VesSAMは、最先端のPEFTベースのSAMを10%以上のDiceと13%のIoUで一貫して上回っている。
論文 参考訳(メタデータ) (2025-11-02T15:47:05Z) - Learnable Prompting SAM-induced Knowledge Distillation for Semi-supervised Medical Image Segmentation [47.789013598970925]
半教師型医用画像分割のための知識蒸留フレームワークKnowSAMを提案する。
我々のモデルは最先端の半教師付きセグメンテーションアプローチより優れている。
論文 参考訳(メタデータ) (2024-12-18T11:19:23Z) - Is SAM 2 Better than SAM in Medical Image Segmentation? [0.6144680854063939]
Segment Anything Model (SAM) は、自然画像上のゼロショットプロンプト可能なセグメンテーションにおいて、印象的な性能を示した。
先日リリースされたSegment Anything Model 2 (SAM2)は、SAMを画像で上回り、モデルの能力をビデオセグメンテーションに拡張したと主張している。
SAM と SAM 2 の性能を比較するために,複数のデータセットを用いて広範囲にわたる研究を行った。
論文 参考訳(メタデータ) (2024-08-08T04:34:29Z) - Interactive 3D Medical Image Segmentation with SAM 2 [17.523874868612577]
ビデオで訓練した次世代のMeta SAMモデルSAM 2のゼロショット機能について, 医用画像のセグメンテーションについて検討する。
3D画像のシーケンシャルな2Dスライスをビデオフレームとして扱うことで、SAM 2は単一のフレームから3Dボリューム全体へのアノテーションの完全な伝達を可能にする。
論文 参考訳(メタデータ) (2024-08-05T16:58:56Z) - SAM-Med3D: Towards General-purpose Segmentation Models for Volumetric Medical Images [35.83393121891959]
ボリューム医療画像の汎用セグメンテーションのためのSAM-Med3Dを提案する。
SAM-Med3Dは様々な解剖学的構造と病変を正確に分類することができる。
提案手法は,医療資源を多用した汎用医療AIの開発に活用できることを実証するものである。
論文 参考訳(メタデータ) (2023-10-23T17:57:36Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - SurgicalSAM: Efficient Class Promptable Surgical Instrument Segmentation [65.52097667738884]
そこで本研究では,SAMの知識と外科的特異的情報を統合し,汎用性を向上させるための,新しいエンドツーエンドの効率的なチューニング手法であるScientialSAMを紹介した。
具体的には,タイピングのための軽量なプロトタイプベースクラスプロンプトエンコーダを提案し,クラスプロトタイプから直接プロンプト埋め込みを生成する。
また,手術器具カテゴリー間のクラス間差異の低さに対応するために,コントラッシブなプロトタイプ学習を提案する。
論文 参考訳(メタデータ) (2023-08-17T02:51:01Z) - Medical SAM Adapter: Adapting Segment Anything Model for Medical Image
Segmentation [51.770805270588625]
Segment Anything Model (SAM)は画像セグメンテーションの分野で最近人気を集めている。
近年の研究では、SAMは医用画像のセグメンテーションにおいて過小評価されている。
ドメイン固有の医療知識をセグメンテーションモデルに組み込んだ医療SAMアダプタ(Med-SA)を提案する。
論文 参考訳(メタデータ) (2023-04-25T07:34:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。