論文の概要: Hierarchical Self-Prompting SAM: A Prompt-Free Medical Image Segmentation Framework
- arxiv url: http://arxiv.org/abs/2506.02854v1
- Date: Tue, 03 Jun 2025 13:23:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:35.698679
- Title: Hierarchical Self-Prompting SAM: A Prompt-Free Medical Image Segmentation Framework
- Title(参考訳): 階層型セルフプロンピングSAM:プロンプトフリーな医用画像セグメンテーションフレームワーク
- Authors: Mengmeng Zhang, Xingyuan Dai, Yicheng Sun, Jing Wang, Yueyang Yao, Xiaoyan Gong, Fuze Cong, Feiyue Wang, Yisheng Lv,
- Abstract要約: Hierarchical Self-Prompting SAM (HSP-SAM) は医療画像セグメンテーションのための新しいセルフプロンプトフレームワークである。
HSP-SAMはポリープや皮膚病変のセグメンテーションのような古典的なセグメンテーションタスクにおいて優れた性能を発揮する。
未確認データセットへの強力な一般化を示し、従来の最先端手法よりも14.04%の改善を実現している。
- 参考スコア(独自算出の注目度): 22.156422571599453
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although the Segment Anything Model (SAM) is highly effective in natural image segmentation, it requires dependencies on prompts, which limits its applicability to medical imaging where manual prompts are often unavailable. Existing efforts to fine-tune SAM for medical segmentation typically struggle to remove this dependency. We propose Hierarchical Self-Prompting SAM (HSP-SAM), a novel self-prompting framework that enables SAM to achieve strong performance in prompt-free medical image segmentation. Unlike previous self-prompting methods that remain limited to positional prompts similar to vanilla SAM, we are the first to introduce learning abstract prompts during the self-prompting process. This simple and intuitive self-prompting framework achieves superior performance on classic segmentation tasks such as polyp and skin lesion segmentation, while maintaining robustness across diverse medical imaging modalities. Furthermore, it exhibits strong generalization to unseen datasets, achieving improvements of up to 14.04% over previous state-of-the-art methods on some challenging benchmarks. These results suggest that abstract prompts encapsulate richer and higher-dimensional semantic information compared to positional prompts, thereby enhancing the model's robustness and generalization performance. All models and codes will be released upon acceptance.
- Abstract(参考訳): SAM(Segment Anything Model)は、自然画像のセグメンテーションにおいて非常に効果的であるが、プロンプトに依存しているため、手動のプロンプトがしばしば利用できない医療画像への適用が制限される。
メディカルセグメンテーションのためにSAMを微調整する既存の取り組みは、一般的にこの依存関係を取り除くのに苦労する。
HSP-SAM(Hierarchical Self-Prompting SAM)を提案する。
バニラSAMと同様の位置的プロンプトに制限された従来の自己プロンプト法とは異なり、我々は自己プロンプト過程において、初めて学習抽象プロンプトを導入する。
このシンプルで直感的なセルフプロンプティングフレームワークは、様々な医用画像モダリティの堅牢性を維持しつつ、ポリプや皮膚病変のセグメンテーションのような古典的なセグメンテーションタスクにおいて優れたパフォーマンスを達成する。
さらに、未確認データセットに対する強力な一般化を示し、いくつかの挑戦的なベンチマークで過去の最先端の手法よりも14.04%改善された。
これらの結果から,抽象的プロンプトは位置的プロンプトよりもリッチで高次元的なセマンティック情報をカプセル化し,モデルの堅牢性と一般化性能を向上させることが示唆された。
すべてのモデルとコードは受け入れられる。
関連論文リスト
- Learnable Prompting SAM-induced Knowledge Distillation for Semi-supervised Medical Image Segmentation [47.789013598970925]
半教師型医用画像分割のための知識蒸留フレームワークKnowSAMを提案する。
我々のモデルは最先端の半教師付きセグメンテーションアプローチより優れている。
論文 参考訳(メタデータ) (2024-12-18T11:19:23Z) - Med-PerSAM: One-Shot Visual Prompt Tuning for Personalized Segment Anything Model in Medical Domain [30.700648813505158]
文脈内学習に適したプロンプトを組み込んだ事前学習モデルの活用は、NLPタスクにおいて極めて効果的であることが証明されている。
textbfMed-PerSAMは,医療領域向けに設計された,新規で簡単なワンショット・フレームワークである。
本モデルは,多様な2次元医用画像データセットにおいて,基礎モデルおよび従来のSAMベースのアプローチより優れる。
論文 参考訳(メタデータ) (2024-11-25T06:16:17Z) - SAM-CP: Marrying SAM with Composable Prompts for Versatile Segmentation [88.80792308991867]
Segment Anything Model (SAM)は、イメージピクセルをパッチにグループ化する機能を示しているが、セグメンテーションにそれを適用することは依然として大きな課題に直面している。
本稿では,SAM-CPを提案する。SAM-CPはSAM以外の2種類の構成可能なプロンプトを確立し,多目的セグメンテーションのために構成する単純な手法である。
実験により、SAM-CPはオープンドメインとクローズドドメインの両方においてセマンティック、例、およびパノプティックセグメンテーションを達成することが示された。
論文 参考訳(メタデータ) (2024-07-23T17:47:25Z) - ESP-MedSAM: Efficient Self-Prompting SAM for Universal Domain-Generalized Medical Image Segmentation [18.388979166848962]
Segment Anything Model (SAM)は両方の設定でその可能性を実証している。
ESP-MedSAM という汎用的な領域一般化医療画像分割のための効率的なセルフプロンプトSAM を提案する。
ESP-MedSAMは様々な医用画像のセグメンテーションタスクにおいて最先端の成果を上げている。
論文 参考訳(メタデータ) (2024-07-19T09:32:30Z) - AlignSAM: Aligning Segment Anything Model to Open Context via Reinforcement Learning [61.666973416903005]
Segment Anything Model (SAM)は、オープンワールドシナリオにおいて、プロンプトのガイダンスによって、その印象的な一般化機能を実証した。
オープンコンテキストにSAMをアライメントするための自動プロンプトのための新しいフレームワークAlignSAMを提案する。
論文 参考訳(メタデータ) (2024-06-01T16:21:39Z) - SurgicalSAM: Efficient Class Promptable Surgical Instrument Segmentation [65.52097667738884]
そこで本研究では,SAMの知識と外科的特異的情報を統合し,汎用性を向上させるための,新しいエンドツーエンドの効率的なチューニング手法であるScientialSAMを紹介した。
具体的には,タイピングのための軽量なプロトタイプベースクラスプロンプトエンコーダを提案し,クラスプロトタイプから直接プロンプト埋め込みを生成する。
また,手術器具カテゴリー間のクラス間差異の低さに対応するために,コントラッシブなプロトタイプ学習を提案する。
論文 参考訳(メタデータ) (2023-08-17T02:51:01Z) - Medical SAM Adapter: Adapting Segment Anything Model for Medical Image
Segmentation [51.770805270588625]
Segment Anything Model (SAM)は画像セグメンテーションの分野で最近人気を集めている。
近年の研究では、SAMは医用画像のセグメンテーションにおいて過小評価されている。
ドメイン固有の医療知識をセグメンテーションモデルに組み込んだ医療SAMアダプタ(Med-SA)を提案する。
論文 参考訳(メタデータ) (2023-04-25T07:34:22Z) - Segment Anything Model for Medical Image Analysis: an Experimental Study [19.95972201734614]
Segment Anything Model (SAM) は、ユーザ定義オブジェクトをインタラクティブな方法でセグメント化する基礎モデルである。
SAMの医用画像の分類能力について,各種のモダリティと解剖から,19の医用画像データセットの集合体を用いて評価した。
論文 参考訳(メタデータ) (2023-04-20T17:50:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。