論文の概要: SAMora: Enhancing SAM through Hierarchical Self-Supervised Pre-Training for Medical Images
- arxiv url: http://arxiv.org/abs/2511.08626v1
- Date: Thu, 13 Nov 2025 01:00:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-13 22:34:54.152219
- Title: SAMora: Enhancing SAM through Hierarchical Self-Supervised Pre-Training for Medical Images
- Title(参考訳): SAMora: 医療画像のための階層的自己監督型事前訓練によるSAMの強化
- Authors: Shuhang Chen, Hangjie Yuan, Pengwei Liu, Hanxue Gu, Tao Feng, Dong Ni,
- Abstract要約: 画像,パッチ,ピクセルレベルでの階層的な医療知識を捉えるフレームワークであるSAMoraを提案する。
SAMoraはSAM2、SAMed、H-SAMなど様々なSAMと互換性がある。
微調整エポックを90%削減しつつ、少数ショットと完全教師付き設定の両方で最先端のパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 19.136303136685207
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Segment Anything Model (SAM) has demonstrated significant potential in medical image segmentation. Yet, its performance is limited when only a small amount of labeled data is available, while there is abundant valuable yet often overlooked hierarchical information in medical data. To address this limitation, we draw inspiration from self-supervised learning and propose SAMora, an innovative framework that captures hierarchical medical knowledge by applying complementary self-supervised learning objectives at the image, patch, and pixel levels. To fully exploit the complementarity of hierarchical knowledge within LoRAs, we introduce HL-Attn, a hierarchical fusion module that integrates multi-scale features while maintaining their distinct characteristics. SAMora is compatible with various SAM variants, including SAM2, SAMed, and H-SAM. Experimental results on the Synapse, LA, and PROMISE12 datasets demonstrate that SAMora outperforms existing SAM variants. It achieves state-of-the-art performance in both few-shot and fully supervised settings while reducing fine-tuning epochs by 90%. The code is available at https://github.com/ShChen233/SAMora.
- Abstract(参考訳): SAM(Segment Anything Model)は、医用画像のセグメンテーションにおいて大きな可能性を証明している。
しかし、少量のラベル付きデータしか利用できない場合、その性能は制限されるが、医療データには貴重な情報があるが、しばしば見過ごされる階層的な情報がある。
この制限に対処するため、私たちは自己教師型学習からインスピレーションを得てSAMoraを提案し、画像、パッチ、ピクセルレベルで補完的な自己教師型学習目標を適用することで、階層的な医療知識を捉える革新的なフレームワークである。
LoRA内の階層的知識の相補性をフル活用するために,HL-Attnを導入する。
SAMoraはSAM2、SAMed、H-SAMなど様々なSAMと互換性がある。
Synapse, LA, PROMISE12データセットの実験結果は、SAMoraが既存のSAM変異よりも優れていることを示している。
微調整エポックを90%削減しつつ、少数ショットと完全教師付き設定の両方で最先端のパフォーマンスを実現する。
コードはhttps://github.com/ShChen233/SAMoraで公開されている。
関連論文リスト
- WeakMedSAM: Weakly-Supervised Medical Image Segmentation via SAM with Sub-Class Exploration and Prompt Affinity Mining [31.81408955413914]
弱教師付きSAMベースセグメンテーションモデルであるWeakMedSAMについて検討し,ラベリングコストの低減を図る。
特に,提案するWeakMedSAMは, 医用画像における重度の共起を緩和するモジュールと, クラスアクティベーションマップの品質向上のためのモジュールの2つを含む。
本手法はSAMUSおよびEfficientSAMを用いて実験を行った。
論文 参考訳(メタデータ) (2025-03-06T05:28:44Z) - Learnable Prompting SAM-induced Knowledge Distillation for Semi-supervised Medical Image Segmentation [47.789013598970925]
半教師型医用画像分割のための知識蒸留フレームワークKnowSAMを提案する。
我々のモデルは最先端の半教師付きセグメンテーションアプローチより優れている。
論文 参考訳(メタデータ) (2024-12-18T11:19:23Z) - WSI-SAM: Multi-resolution Segment Anything Model (SAM) for histopathology whole-slide images [8.179859593451285]
病理画像の正確なオブジェクト分割機能を備えたWSI-SAM, Segment Anything Model (SAM) を提案する。
トレーニングオーバーヘッドを最小限にしながら、トレーニング済みの知識を完全に活用するために、SAMは凍結し、最小限のパラメータしか導入しません。
本モデルでは, 膵管癌 in situ (DCIS) セグメンテーションタスクと乳癌転移セグメンテーションタスクにおいて, SAMを4.1, 2.5パーセント上回った。
論文 参考訳(メタデータ) (2024-03-14T10:30:43Z) - Open-Vocabulary SAM: Segment and Recognize Twenty-thousand Classes Interactively [69.97238935096094]
Open-Vocabulary SAMはSAMにインスパイアされたモデルであり、対話的なセグメンテーションと認識のために設計されている。
約22,000のクラスを分類・認識できる。
論文 参考訳(メタデータ) (2024-01-05T18:59:22Z) - Boosting Segment Anything Model Towards Open-Vocabulary Learning [69.24734826209367]
Segment Anything Model (SAM)は、新しいパラダイムビジョン基盤モデルとして登場した。
SAMは様々な領域で応用や適応を発見できるが、その主な制限はオブジェクトの意味を把握できないことである。
我々は,SAMとオープン語彙オブジェクト検出器をエンドツーエンドフレームワークでシームレスに統合するSamborを提案する。
論文 参考訳(メタデータ) (2023-12-06T17:19:00Z) - SAM-Med2D [34.82072231983896]
我々はSAM-Med2Dを医療用2次元画像に適用する最も包括的な研究である。
まず、公開およびプライベートデータセットから約4.6Mの画像と19.7Mマスクを収集し、キュレートします。
元のSAMのエンコーダとデコーダを微調整して、良好な性能のSAM-Med2Dを得る。
論文 参考訳(メタデータ) (2023-08-30T17:59:02Z) - AutoSAM: Adapting SAM to Medical Images by Overloading the Prompt
Encoder [101.28268762305916]
この作業では、Segment Anything Modelを同じ入力イメージで動作するエンコーダに置き換える。
複数の医用画像とビデオのベンチマークで最先端の結果を得る。
内部の知識を検査し、軽量なセグメンテーションソリューションを提供するために、浅いデコンボリューションネットワークによってマスクに復号化することを学ぶ。
論文 参考訳(メタデータ) (2023-06-10T07:27:00Z) - Medical SAM Adapter: Adapting Segment Anything Model for Medical Image
Segmentation [51.770805270588625]
Segment Anything Model (SAM)は画像セグメンテーションの分野で最近人気を集めている。
近年の研究では、SAMは医用画像のセグメンテーションにおいて過小評価されている。
ドメイン固有の医療知識をセグメンテーションモデルに組み込んだ医療SAMアダプタ(Med-SA)を提案する。
論文 参考訳(メタデータ) (2023-04-25T07:34:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。