論文の概要: From Specialist to Generalist: Unlocking SAM's Learning Potential on Unlabeled Medical Images
- arxiv url: http://arxiv.org/abs/2601.17934v1
- Date: Sun, 25 Jan 2026 18:13:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.548121
- Title: From Specialist to Generalist: Unlocking SAM's Learning Potential on Unlabeled Medical Images
- Title(参考訳): スペシャリストからジェネラリストへ:未ラベル医療画像におけるSAMの学習可能性を解き放つ
- Authors: Vi Vu, Thanh-Huy Nguyen, Tien-Thinh Nguyen, Ba-Thinh Lam, Hoang-Thien Nguyen, Tianyang Wang, Xingjian Li, Min Xu,
- Abstract要約: U-Netは、SAMの適応を導くために、ポイントベースのプロンプトと擬似ラベルを提供する、スペシャリスト・ジェネラリスト・フレームワークであるSC-SAMを紹介する。
この相互ガイダンスは双方向のコトレーニングループを形成し、両方のモデルがラベルのないデータを効果的に活用することができる。
MedSAMのような既存の半教師付きSAM変種や医療基盤モデルよりも優れた結果が得られる。
- 参考スコア(独自算出の注目度): 12.062960289184199
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Foundation models like the Segment Anything Model (SAM) show strong generalization, yet adapting them to medical images remains difficult due to domain shift, scarce labels, and the inability of Parameter-Efficient Fine-Tuning (PEFT) to exploit unlabeled data. While conventional models like U-Net excel in semi-supervised medical learning, their potential to assist a PEFT SAM has been largely overlooked. We introduce SC-SAM, a specialist-generalist framework where U-Net provides point-based prompts and pseudo-labels to guide SAM's adaptation, while SAM serves as a powerful generalist supervisor to regularize U-Net. This reciprocal guidance forms a bidirectional co-training loop that allows both models to effectively exploit the unlabeled data. Across prostate MRI and polyp segmentation benchmarks, our method achieves state-of-the-art results, outperforming other existing semi-supervised SAM variants and even medical foundation models like MedSAM, highlighting the value of specialist-generalist cooperation for label-efficient medical image segmentation. Our code is available at https://github.com/vnlvi2k3/SC-SAM.
- Abstract(参考訳): SAM(Segment Anything Model)のような基盤モデルは、強力な一般化を示すが、ドメインシフトやラベルの不足、ラベルのないデータを利用するパラメータ効率の良いファインチューニング(PEFT)が不可能なため、医療画像への適応は難しいままである。
U-Netのような従来のモデルは、半教師付き医療学習において優れているが、PEFT SAMを支援する可能性はほとんど見過ごされている。
U-NetがSAMの適応を導くためにポイントベースのプロンプトと擬似ラベルを提供するのに対し、SAMはU-Netを正規化するための強力なジェネラリストスーパーバイザとして機能する、専門家・ジェネラリストフレームワークであるSC-SAMを紹介する。
この相互ガイダンスは双方向のコトレーニングループを形成し、両方のモデルがラベルのないデータを効果的に活用することができる。
前立腺MRIとポリプセグメンテーションのベンチマークにおいて,本手法は最先端の結果を達成し,既存の半教師付きSAMおよびMedSAMのような医療基盤モデルよりも優れ,ラベル効率の高い医用画像セグメンテーションにおける専門家と一般の協力の価値を強調した。
私たちのコードはhttps://github.com/vnlvi2k3/SC-SAMで利用可能です。
関連論文リスト
- SAMora: Enhancing SAM through Hierarchical Self-Supervised Pre-Training for Medical Images [19.136303136685207]
画像,パッチ,ピクセルレベルでの階層的な医療知識を捉えるフレームワークであるSAMoraを提案する。
SAMoraはSAM2、SAMed、H-SAMなど様々なSAMと互換性がある。
微調整エポックを90%削減しつつ、少数ショットと完全教師付き設定の両方で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-11-09T03:54:51Z) - VesSAM: Efficient Multi-Prompting for Segmenting Complex Vessel [68.24765319399286]
本稿では,2次元血管セグメンテーションに適した,強力で効率的なフレームワークであるVesSAMを提案する。
VesSAMは、(1)局所的なテクスチャ機能を強化する畳み込みアダプタ、(2)解剖学的プロンプトを融合するマルチプロンプトエンコーダ、(3)ジャグアーティファクトを減らす軽量マスクデコーダを統合する。
VesSAMは、最先端のPEFTベースのSAMを10%以上のDiceと13%のIoUで一貫して上回っている。
論文 参考訳(メタデータ) (2025-11-02T15:47:05Z) - Learnable Prompting SAM-induced Knowledge Distillation for Semi-supervised Medical Image Segmentation [47.789013598970925]
半教師型医用画像分割のための知識蒸留フレームワークKnowSAMを提案する。
我々のモデルは最先端の半教師付きセグメンテーションアプローチより優れている。
論文 参考訳(メタデータ) (2024-12-18T11:19:23Z) - De-LightSAM: Modality-Decoupled Lightweight SAM for Generalizable Medical Segmentation [28.16884929151585]
領域一般化医療画像セグメンテーションのためのモダリティ分離型軽量SAMを提案する。
具体的には、まず、様々なモダリティに対して識別的視覚特徴を生成する軽量なドメイン制御可能なイメージエンコーダ(DC-Encoder)を考案する。
最後に、一対一戦略を利用して独立デコードチャネルを提供するクエリ分離型モダリティデコーダ(QM-Decoder)を設計する。
論文 参考訳(メタデータ) (2024-07-19T09:32:30Z) - Segment Anything without Supervision [65.93211374889196]
高速かつ自動的な全画像分割のためのUnsupervised SAM(UnSAM)を提案する。
UnSAMは、視覚シーンの階層構造を「発見」するために、分割・コンカ戦略を利用する。
教師付きSAMは自己教師付きラベルの恩恵を受けることができることを示す。
論文 参考訳(メタデータ) (2024-06-28T17:47:32Z) - BoxCell: Leveraging SAM for Cell Segmentation with Box Supervision [22.761067372749398]
本研究では,境界ボックスの監視のみが可能な弱教師付き環境について検討し,これをSAM(Segment Anything)を用いて微調整する。
そこで我々は,SAMの機能を利用したセルセグメンテーションフレームワークであるBoxCellを提案する。
我々は、CoNSep、MoNuSeg、TNBCの3つの公開セルセグメンテーションデータセットを実験し、BoxCellが既存のボックス管理画像セグメンテーションモデルを大幅に上回っていることを発見した。
論文 参考訳(メタデータ) (2023-11-29T11:18:48Z) - SurgicalSAM: Efficient Class Promptable Surgical Instrument Segmentation [65.52097667738884]
そこで本研究では,SAMの知識と外科的特異的情報を統合し,汎用性を向上させるための,新しいエンドツーエンドの効率的なチューニング手法であるScientialSAMを紹介した。
具体的には,タイピングのための軽量なプロトタイプベースクラスプロンプトエンコーダを提案し,クラスプロトタイプから直接プロンプト埋め込みを生成する。
また,手術器具カテゴリー間のクラス間差異の低さに対応するために,コントラッシブなプロトタイプ学習を提案する。
論文 参考訳(メタデータ) (2023-08-17T02:51:01Z) - Medical SAM Adapter: Adapting Segment Anything Model for Medical Image
Segmentation [51.770805270588625]
Segment Anything Model (SAM)は画像セグメンテーションの分野で最近人気を集めている。
近年の研究では、SAMは医用画像のセグメンテーションにおいて過小評価されている。
ドメイン固有の医療知識をセグメンテーションモデルに組み込んだ医療SAMアダプタ(Med-SA)を提案する。
論文 参考訳(メタデータ) (2023-04-25T07:34:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。