論文の概要: Continual Alignment for SAM: Rethinking Foundation Models for Medical Image Segmentation in Continual Learning
- arxiv url: http://arxiv.org/abs/2511.17201v1
- Date: Fri, 21 Nov 2025 12:27:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-24 18:08:19.015695
- Title: Continual Alignment for SAM: Rethinking Foundation Models for Medical Image Segmentation in Continual Learning
- Title(参考訳): SAMの連続的アライメント:連続学習における医用画像セグメンテーションの基礎モデルの再考
- Authors: Jiayi Wang, Wei Dai, Haoyu Wang, Sihan Yang, Haixia Bi, Jian Sun,
- Abstract要約: 医用画像のセグメンテーションにおいて、組織間の異種プライバシーポリシーは、しばしばプールされたデータセットで共同トレーニングを行うことができる。
Segment Anything Model (SAM)は強力なゼロショット前処理を提供するが、その大きなパラメータ数と計算オーバーヘッドは実際のデプロイに挑戦する。
本稿では,SAMパラダイムが計算効率と性能のバランスを保てば,高い期待を達成できることを実証する。
- 参考スコア(独自算出の注目度): 42.22450978339022
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In medical image segmentation, heterogeneous privacy policies across institutions often make joint training on pooled datasets infeasible, motivating continual image segmentation-learning from data streams without catastrophic forgetting. While the Segment Anything Model (SAM) offers strong zero-shot priors and has been widely fine-tuned across downstream tasks, its large parameter count and computational overhead challenge practical deployment. This paper demonstrates that the SAM paradigm is highly promising once its computational efficiency and performance can be balanced. To this end, we introduce the Alignment Layer, a lightweight, plug-and-play module which aligns encoder-decoder feature distributions to efficiently adapt SAM to specific medical images, improving accuracy while reducing computation. Building on SAM and the Alignment Layer, we then propose Continual Alignment for SAM (CA-SAM), a continual learning strategy that automatically adapts the appropriate Alignment Layer to mitigate catastrophic forgetting, while leveraging SAM's zero-shot priors to preserve strong performance on unseen medical datasets. Experimented across nine medical segmentation datasets under continual-learning scenario, CA-SAM achieves state-of-the-art performance. Our code, models and datasets will be released on \mbox{https://github.com/azzzzyo/Continual-Alignment-for-SAM.}
- Abstract(参考訳): 医療画像のセグメンテーションにおいて、組織間の異種プライバシーポリシーは、しばしばプールされたデータセットで共同トレーニングを行い、破滅的な忘れ物のないデータストリームからの連続的なイメージセグメンテーション学習を動機付けている。
Segment Anything Model (SAM)は、強力なゼロショット前処理を提供し、ダウンストリームタスクにまたがって広範囲に微調整されているが、その大きなパラメータ数と計算オーバーヘッドは、実際のデプロイに挑戦している。
本稿では,SAMパラダイムが計算効率と性能のバランスを保てば,高い期待を達成できることを実証する。
この目的のために,エンコーダとデコーダの機能分布を整列させてSAMを特定の医用画像に効率よく適応させ,計算量を削減しながら精度を向上する,軽量なプラグアンドプレイモジュールであるAlignment Layerを導入する。
SAMとアライメント・レイヤ上に構築したContinuous Alignment for SAM(CA-SAM)は,適切なアライメント・レイヤに自動的に適応して破滅的な忘れを軽減し,SAMのゼロショット前処理を活用して,目に見えない医療データセットの強いパフォーマンスを維持するための継続的学習戦略である。
CA-SAMは、連続的な学習シナリオ下で9つの医療セグメントデータセットで実験され、最先端のパフォーマンスを達成する。
私たちのコード、モデル、データセットは、 \mbox{https://github.com/azzzzyo/Continual-Alignment-for-SAMでリリースされます。
※
関連論文リスト
- VesSAM: Efficient Multi-Prompting for Segmenting Complex Vessel [68.24765319399286]
本稿では,2次元血管セグメンテーションに適した,強力で効率的なフレームワークであるVesSAMを提案する。
VesSAMは、(1)局所的なテクスチャ機能を強化する畳み込みアダプタ、(2)解剖学的プロンプトを融合するマルチプロンプトエンコーダ、(3)ジャグアーティファクトを減らす軽量マスクデコーダを統合する。
VesSAMは、最先端のPEFTベースのSAMを10%以上のDiceと13%のIoUで一貫して上回っている。
論文 参考訳(メタデータ) (2025-11-02T15:47:05Z) - Learnable Prompting SAM-induced Knowledge Distillation for Semi-supervised Medical Image Segmentation [47.789013598970925]
半教師型医用画像分割のための知識蒸留フレームワークKnowSAMを提案する。
我々のモデルは最先端の半教師付きセグメンテーションアプローチより優れている。
論文 参考訳(メタデータ) (2024-12-18T11:19:23Z) - Adapting Segment Anything Model for Unseen Object Instance Segmentation [70.60171342436092]
Unseen Object Instance(UOIS)は、非構造環境で動作する自律ロボットにとって不可欠である。
UOISタスクのためのデータ効率のよいソリューションであるUOIS-SAMを提案する。
UOIS-SAMは、(i)HeatmapベースのPrompt Generator(HPG)と(ii)SAMのマスクデコーダに適応する階層識別ネットワーク(HDNet)の2つの重要なコンポーネントを統合する。
論文 参考訳(メタデータ) (2024-09-23T19:05:50Z) - ASPS: Augmented Segment Anything Model for Polyp Segmentation [77.25557224490075]
SAM(Segment Anything Model)は、ポリープセグメンテーションに先例のないポテンシャルを導入している。
SAMのTransformerベースの構造は、グローバルおよび低周波情報を優先する。
CFAはトレーニング可能なCNNエンコーダブランチと凍結したViTエンコーダを統合し、ドメイン固有の知識の統合を可能にする。
論文 参考訳(メタデータ) (2024-06-30T14:55:32Z) - BLO-SAM: Bi-level Optimization Based Overfitting-Preventing Finetuning
of SAM [37.1263294647351]
BLO-SAMを導入し、二段階最適化(BLO)に基づいてSAM(Segment Anything Model)を微調整する。
BLO-SAMは、モデルの重みパラメータのトレーニングと、トレーニングデータセットの2つの別々のサブセットへの迅速な埋め込みによって、過適合のリスクを低減する。
その結果、BLO-SAMは様々な最先端画像セマンティックセグメンテーション法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-02-26T06:36:32Z) - BA-SAM: Scalable Bias-Mode Attention Mask for Segment Anything Model [65.92173280096588]
我々は,Segment Anything Model (SAM)における画像分解能変動の課題に対処する。
SAMはゼロショットの汎用性で知られており、さまざまな画像サイズを持つデータセットに直面するとパフォーマンスが低下する。
我々は、各トークンが隣り合う情報を優先順位付けできるバイアスモードのアテンションマスクを提案する。
論文 参考訳(メタデータ) (2024-01-04T15:34:44Z) - How to Efficiently Adapt Large Segmentation Model(SAM) to Medical Images [15.181219203629643]
Segment Anything (SAM)は、自然画像のゼロショットセグメンテーションにおいて印象的な機能を示す。
しかし、医療画像に適用すると、SAMは顕著なパフォーマンス低下に悩まされる。
本研究では,SAMエンコーダを凍結し,軽量なタスク固有予測ヘッドを微調整することを提案する。
論文 参考訳(メタデータ) (2023-06-23T18:34:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。