論文の概要: SAM-Fed: SAM-Guided Federated Semi-Supervised Learning for Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2511.14302v1
- Date: Tue, 18 Nov 2025 09:58:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:53.041336
- Title: SAM-Fed: SAM-Guided Federated Semi-Supervised Learning for Medical Image Segmentation
- Title(参考訳): SAM-Fed: SAM-Guided Federated Semi-Supervised Learning for Medical Image Segmentation
- Authors: Sahar Nasirihaghighi, Negin Ghamsarian, Yiping Li, Marcel Breeuwer, Raphael Sznitman, Klaus Schoeffmann,
- Abstract要約: 医療画像のセグメンテーションは臨床的に重要であるが、データプライバシと専門家アノテーションのコストはラベル付きデータの可用性を制限する。
FSSL(Federated semi-supervised learning)は、ソリューションを提供するが、2つの課題に直面している。 擬似ラベルの信頼性は、ローカルモデルの強みに依存し、クライアントデバイスは、コンパクトまたは異種アーキテクチャを必要とすることが多い。
我々は,高容量セグメンテーション基盤モデルを利用して,訓練中に軽量クライアントを案内する,フェデレーション付き半教師付きフレームワークSAM-Fedを提案する。
- 参考スコア(独自算出の注目度): 10.397114067194334
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Medical image segmentation is clinically important, yet data privacy and the cost of expert annotation limit the availability of labeled data. Federated semi-supervised learning (FSSL) offers a solution but faces two challenges: pseudo-label reliability depends on the strength of local models, and client devices often require compact or heterogeneous architectures due to limited computational resources. These constraints reduce the quality and stability of pseudo-labels, while large models, though more accurate, cannot be trained or used for routine inference on client devices. We propose SAM-Fed, a federated semi-supervised framework that leverages a high-capacity segmentation foundation model to guide lightweight clients during training. SAM-Fed combines dual knowledge distillation with an adaptive agreement mechanism to refine pixel-level supervision. Experiments on skin lesion and polyp segmentation across homogeneous and heterogeneous settings show that SAM-Fed consistently outperforms state-of-the-art FSSL methods.
- Abstract(参考訳): 医療画像のセグメンテーションは臨床的に重要であるが、データプライバシと専門家アノテーションのコストはラベル付きデータの可用性を制限する。
擬似ラベルの信頼性は、ローカルモデルの強みに依存し、クライアントデバイスは、限られた計算資源のために、コンパクトまたは異種アーキテクチャを必要とすることが多い。
これらの制約は擬似ラベルの品質と安定性を低下させるが、大きなモデルはより正確ではあるが、クライアントデバイスでの定期的な推論のためにトレーニングや使用はできない。
我々は,高容量セグメンテーション基盤モデルを利用して,訓練中に軽量クライアントを案内する,フェデレーション付き半教師付きフレームワークSAM-Fedを提案する。
SAM-Fedは、二重知識蒸留と適応的な合意機構を組み合わせてピクセルレベルの監督を洗練させる。
異種および異種設定における皮膚病変とポリプセグメンテーションの実験は、SAM-Fedが一貫して最先端のFSSL法より優れていることを示している。
関連論文リスト
- VesSAM: Efficient Multi-Prompting for Segmenting Complex Vessel [68.24765319399286]
本稿では,2次元血管セグメンテーションに適した,強力で効率的なフレームワークであるVesSAMを提案する。
VesSAMは、(1)局所的なテクスチャ機能を強化する畳み込みアダプタ、(2)解剖学的プロンプトを融合するマルチプロンプトエンコーダ、(3)ジャグアーティファクトを減らす軽量マスクデコーダを統合する。
VesSAMは、最先端のPEFTベースのSAMを10%以上のDiceと13%のIoUで一貫して上回っている。
論文 参考訳(メタデータ) (2025-11-02T15:47:05Z) - BALR-SAM: Boundary-Aware Low-Rank Adaptation of SAM for Resource-Efficient Medical Image Segmentation [11.634558989215392]
Segment Anything Model (SAM)のようなビジョン基盤モデルは、ドメイン固有の適応が欠如しているため、しばしば医療画像のセグメンテーションに苦労する。
医療画像のSAMを強化する境界対応低ランク適応フレームワークであるBALR-SAMを提案する。
2) SAMのVision Transformerブロックに組み込まれた低ランクのアダプタは、医学的コンテキストにおける特徴表現と注意を最適化し、同時にパラメータ空間を著しく削減する。
論文 参考訳(メタデータ) (2025-09-29T02:36:09Z) - ConformalSAM: Unlocking the Potential of Foundational Segmentation Models in Semi-Supervised Semantic Segmentation with Conformal Prediction [57.930531826380836]
本研究は,未ラベル画像のアノテータとして画素レベルの視覚課題におけるラベル不足に,基礎的セグメンテーションモデルが対処できるかどうかを考察する。
ConformalSAMは,まず対象ドメインのラベル付きデータを用いて基礎モデルを校正し,ラベルなしデータの信頼できないピクセルラベルをフィルタリングする新しいSSSSフレームワークである。
論文 参考訳(メタデータ) (2025-07-21T17:02:57Z) - Mind the Gap: Confidence Discrepancy Can Guide Federated Semi-Supervised Learning Across Pseudo-Mismatch [50.632535091877706]
Federated Semi-Supervised Learning (FSSL)は、ラベル付きデータに制限のあるクライアント間でラベル付きデータを活用して、強力な一般化能力を持つグローバルモデルをトレーニングすることを目的としている。
ほとんどのFSSL手法は擬似ラベルによる整合正則化に依存しており、局所的またはグローバルなモデルからの予測を監督信号としてハード擬似ラベルに変換する。
擬似ラベルの品質は、フェデレーション学習の本質的な側面であるデータ不均一性によって大きく劣化していることを示す。
論文 参考訳(メタデータ) (2025-03-17T14:41:51Z) - Efficient Knowledge Distillation of SAM for Medical Image Segmentation [0.04672991859386895]
Segment Anything Model (SAM)はインタラクティブなイメージセグメンテーションの新しい標準を設定し、さまざまなタスクで堅牢なパフォーマンスを提供する。
我々は, エンコーダとデコーダの最適化を, Mean Squared Error (MSE) と Perceptual Loss の組み合わせで組み合わせた新しい知識蒸留手法 KD SAM を提案する。
KD SAMはセグメンテーションの精度と計算効率を効果的にバランスさせ、資源制約のある環境でリアルタイムの医用画像セグメンテーションに適している。
論文 参考訳(メタデータ) (2025-01-28T06:33:30Z) - Promptable Anomaly Segmentation with SAM Through Self-Perception Tuning [63.55145330447408]
異常セグメンテーションのための textbfSelf-textbfPerceptinon textbfTuning (textbfSPT) 法を提案する。
SPT法は, 自己描画型チューニング戦略を取り入れ, 異常マスクの初期粗いドラフトを生成し, 精製処理を行う。
論文 参考訳(メタデータ) (2024-11-26T08:33:25Z) - SAM-Driven Weakly Supervised Nodule Segmentation with Uncertainty-Aware Cross Teaching [13.5553526185399]
自動結節分割は超音波画像におけるコンピュータ支援診断に不可欠である。
近年、SAMのようなセグメンテーション基礎モデルは、自然画像に顕著な一般化性を示している。
本研究では, セグメンテーション基盤モデルを利用して擬似ラベルを生成する, 弱教師付きフレームワークを考案する。
論文 参考訳(メタデータ) (2024-07-18T14:27:54Z) - ClipSAM: CLIP and SAM Collaboration for Zero-Shot Anomaly Segmentation [5.376142948115328]
本稿では,ZSASのためのCLIPおよびSAM協調フレームワークであるClipSAMを提案する。
ClipSAMの背後にある洞察は、CLIPのセマンティック理解機能を、異常なローカライゼーションと粗いセグメンテーションに活用することである。
本稿では,視覚的特徴と対話するためのUMCI(Unified Multi-scale Cross-modal Interaction)モジュールについて述べる。
論文 参考訳(メタデータ) (2024-01-23T11:20:03Z) - Stable Segment Anything Model [79.9005670886038]
SAM(Segment Anything Model)は、高品質なプロンプトが与えられた場合、顕著に迅速なセグメンテーションを実現する。
本稿では,SAMのセグメンテーション安定性について,多様なプロンプト特性のスペクトルにわたって包括的解析を行った。
1)SAMのセグメンテーション安定性を広範囲に改善し,2)SAMの強力なセグメンテーション効率と一般化を維持した。
論文 参考訳(メタデータ) (2023-11-27T12:51:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。