論文の概要: TAGS: 3D Tumor-Adaptive Guidance for SAM
- arxiv url: http://arxiv.org/abs/2505.17096v1
- Date: Wed, 21 May 2025 04:02:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-26 18:08:33.557526
- Title: TAGS: 3D Tumor-Adaptive Guidance for SAM
- Title(参考訳): TAGS:SAMの3D腫瘍適応誘導
- Authors: Sirui Li, Linkai Peng, Zheyuan Zhang, Gorkem Durak, Ulas Bagci,
- Abstract要約: 本稿では, SAM 用腫瘍適応ガイダンス (TAGS: tumor Adaptive Guidance for SAM) という適応フレームワークを提案する。
マルチプロンプト融合により、2D FMを3D医療タスクにアンロックする。
我々のモデルは最先端の医療画像セグメンテーションモデルを上回る。
- 参考スコア(独自算出の注目度): 4.073510647434655
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Foundation models (FMs) such as CLIP and SAM have recently shown great promise in image segmentation tasks, yet their adaptation to 3D medical imaging-particularly for pathology detection and segmentation-remains underexplored. A critical challenge arises from the domain gap between natural images and medical volumes: existing FMs, pre-trained on 2D data, struggle to capture 3D anatomical context, limiting their utility in clinical applications like tumor segmentation. To address this, we propose an adaptation framework called TAGS: Tumor Adaptive Guidance for SAM, which unlocks 2D FMs for 3D medical tasks through multi-prompt fusion. By preserving most of the pre-trained weights, our approach enhances SAM's spatial feature extraction using CLIP's semantic insights and anatomy-specific prompts. Extensive experiments on three open-source tumor segmentation datasets prove that our model surpasses the state-of-the-art medical image segmentation models (+46.88% over nnUNet), interactive segmentation frameworks, and other established medical FMs, including SAM-Med2D, SAM-Med3D, SegVol, Universal, 3D-Adapter, and SAM-B (at least +13% over them). This highlights the robustness and adaptability of our proposed framework across diverse medical segmentation tasks.
- Abstract(参考訳): CLIPやSAMのような基礎モデル(FM)は画像分割タスクにおいて大きな可能性を秘めているが、3D医療画像への適応は、特に病理学的検出とセグメンテーション残基の探索が不十分である。
既存のFMは2Dデータに基づいて事前訓練され、3D解剖学的文脈を捉えるのに苦労し、腫瘍セグメンテーションのような臨床応用においてその有用性を制限している。
そこで本研究では,マルチプロンプト融合による3次元医療タスクの2次元FMをアンロックする TAGS: tumor Adaptive Guidance for SAM という適応フレームワークを提案する。
トレーニング済み重量のほとんどを保存することにより,CLIPの意味的洞察と解剖学的特異なプロンプトを用いてSAMの空間的特徴抽出を促進する。
3つのオープンソース腫瘍セグメンテーションデータセットに対する大規模な実験により、我々のモデルは最先端の医用画像セグメンテーションモデル(+46.88%はnnUNet)、インタラクティブセグメンテーションフレームワーク、SAM-Med2D、SAM-Med3D、SegVol、Universal、3D-Adapter、SAM-B(少なくとも+13%以上)など、確立された医療用FMを超えることが証明された。
これは、様々な医療分野におけるフレームワークの堅牢性と適応性を強調します。
関連論文リスト
- Few-Shot Adaptation of Training-Free Foundation Model for 3D Medical Image Segmentation [8.78725593323412]
FATE-SAM (Few-shot Adaptation of Training-frEe SAM) は、3次元医用画像セグメンテーションに高度なセグメンテーションモデル2 (SAM2) を適用するために設計された新しい手法である。
FATE-SAMはSAM2の事前訓練されたモジュールを再組み立てし、少数のサポート例を活用する。
複数の医用画像データセット上でFATE-SAMを評価し、教師付き学習方法、ゼロショットSAMアプローチ、微調整医療SAM手法と比較した。
論文 参考訳(メタデータ) (2025-01-15T20:44:21Z) - Mask-Enhanced Segment Anything Model for Tumor Lesion Semantic Segmentation [48.107348956719775]
Mask-Enhanced SAM (M-SAM) は, 腫瘍の3次元セグメント化に適した革新的なアーキテクチャである。
本稿では,M-SAM内におけるMask-Enhanced Adapter (MEA) を提案する。
我々のM-SAMは高いセグメンテーション精度を達成し、またロバストな一般化を示す。
論文 参考訳(メタデータ) (2024-03-09T13:37:02Z) - SAM-Med3D: Towards General-purpose Segmentation Models for Volumetric Medical Images [35.83393121891959]
ボリューム医療画像の汎用セグメンテーションのためのSAM-Med3Dを提案する。
SAM-Med3Dは様々な解剖学的構造と病変を正確に分類することができる。
提案手法は,医療資源を多用した汎用医療AIの開発に活用できることを実証するものである。
論文 参考訳(メタデータ) (2023-10-23T17:57:36Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - AutoProSAM: Automated Prompting SAM for 3D Multi-Organ Segmentation [11.149807995830255]
Segment Anything Model (SAM)は、画像セグメンテーションのための先駆的なプロンプトベースの基礎モデルの一つである。
近年の研究では、SAMはもともと2次元の自然画像用に設計されており、3次元の医用画像分割作業に最適化されていることが示されている。
本稿では,これらの課題を克服するため,AutoProSAMと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-28T23:23:53Z) - 3DSAM-adapter: Holistic adaptation of SAM from 2D to 3D for promptable tumor segmentation [52.699139151447945]
医用画像の領域分割を行うために, SAMを2次元から3次元に変換する新しい適応法を提案する。
本モデルでは, 腎腫瘍, 膵腫瘍, 大腸癌の3つのタスクのうち8.25%, 29.87%, 10.11%の3つのタスクにおいて, ドメイン・オブ・ザ・アーティヴ・メディカル・イメージ・セグメンテーション・モデルより優れ, 肝腫瘍セグメンテーションでも同様の性能が得られる。
論文 参考訳(メタデータ) (2023-06-23T12:09:52Z) - Medical SAM Adapter: Adapting Segment Anything Model for Medical Image
Segmentation [51.770805270588625]
Segment Anything Model (SAM)は画像セグメンテーションの分野で最近人気を集めている。
近年の研究では、SAMは医用画像のセグメンテーションにおいて過小評価されている。
ドメイン固有の医療知識をセグメンテーションモデルに組み込んだ医療SAMアダプタ(Med-SA)を提案する。
論文 参考訳(メタデータ) (2023-04-25T07:34:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。