論文の概要: Fully Automated SAM for Single-source Domain Generalization in Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2507.17281v1
- Date: Wed, 23 Jul 2025 07:37:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-24 22:33:14.901754
- Title: Fully Automated SAM for Single-source Domain Generalization in Medical Image Segmentation
- Title(参考訳): 医用画像分割における単一ソース領域一般化のための完全自動SAM
- Authors: Huanli Zhuo, Leilei Ma, Haifeng Zhao, Shiwei Zhou, Dengdi Sun, Yanping Fu,
- Abstract要約: FA-SAMは、完全に自動化されたSAMを実現する医療画像セグメンテーションのための単一ソースドメイン一般化フレームワークである。
FA-SAMは、Shallow Feature Uncertainty Modeling (SUFM)モジュールを備えたAuto-prompted Generation Model (AGM)ブランチと、SAMマスクデコーダに統合された Image-Prompt Embedding Fusion (IPEF)モジュールの2つの重要なイノベーションを導入している。
- 参考スコア(独自算出の注目度): 3.7839630649682054
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Although SAM-based single-source domain generalization models for medical image segmentation can mitigate the impact of domain shift on the model in cross-domain scenarios, these models still face two major challenges. First, the segmentation of SAM is highly dependent on domain-specific expert-annotated prompts, which prevents SAM from achieving fully automated medical image segmentation and therefore limits its application in clinical settings. Second, providing poor prompts (such as bounding boxes that are too small or too large) to the SAM prompt encoder can mislead SAM into generating incorrect mask results. Therefore, we propose the FA-SAM, a single-source domain generalization framework for medical image segmentation that achieves fully automated SAM. FA-SAM introduces two key innovations: an Auto-prompted Generation Model (AGM) branch equipped with a Shallow Feature Uncertainty Modeling (SUFM) module, and an Image-Prompt Embedding Fusion (IPEF) module integrated into the SAM mask decoder. Specifically, AGM models the uncertainty distribution of shallow features through the SUFM module to generate bounding box prompts for the target domain, enabling fully automated segmentation with SAM. The IPEF module integrates multiscale information from SAM image embeddings and prompt embeddings to capture global and local details of the target object, enabling SAM to mitigate the impact of poor prompts. Extensive experiments on publicly available prostate and fundus vessel datasets validate the effectiveness of FA-SAM and highlight its potential to address the above challenges.
- Abstract(参考訳): SAMベースの医用画像分割のための単一ソースドメイン一般化モデルは、クロスドメインシナリオにおけるドメインシフトの影響を軽減することができるが、これらのモデルは2つの大きな課題に直面している。
第一に、SAMのセグメンテーションはドメイン固有の専門家によるプロンプトに強く依存しており、SAMが完全に自動化された医用画像セグメンテーションを達成するのを防ぎ、臨床現場での応用を制限する。
第二に、SAMプロンプトエンコーダに貧弱なプロンプト(小さすぎるか大きすぎるようなバウンディングボックスなど)を提供することで、SAMを誤ってマスク結果を生成することができる。
そこで本研究では,医療画像セグメンテーションのための単一ソース領域一般化フレームワークであるFA-SAMを提案する。
FA-SAMは、Shallow Feature Uncertainty Modeling (SUFM)モジュールを備えたAuto-prompted Generation Model (AGM)ブランチと、SAMマスクデコーダに統合された Image-Prompt Embedding Fusion (IPEF)モジュールの2つの重要なイノベーションを導入している。
具体的には、ASFMモジュールを通して浅い特徴の不確実性分布をモデル化し、ターゲット領域に対するバウンディングボックスプロンプトを生成し、SAMによる完全自動セグメンテーションを可能にする。
IPEFモジュールはSAMイメージの埋め込みからのマルチスケール情報を統合し、埋め込みをプロンプトしてターゲットオブジェクトのグローバルおよびローカルの詳細をキャプチャし、SAMが貧弱なプロンプトの影響を軽減する。
一般公開された前立腺および基底血管データセットに関する大規模な実験は、FA-SAMの有効性を検証するとともに、上記の課題に対処する可能性を強調している。
関連論文リスト
- SAM-CP: Marrying SAM with Composable Prompts for Versatile Segmentation [88.80792308991867]
Segment Anything Model (SAM)は、イメージピクセルをパッチにグループ化する機能を示しているが、セグメンテーションにそれを適用することは依然として大きな課題に直面している。
本稿では,SAM-CPを提案する。SAM-CPはSAM以外の2種類の構成可能なプロンプトを確立し,多目的セグメンテーションのために構成する単純な手法である。
実験により、SAM-CPはオープンドメインとクローズドドメインの両方においてセマンティック、例、およびパノプティックセグメンテーションを達成することが示された。
論文 参考訳(メタデータ) (2024-07-23T17:47:25Z) - AlignSAM: Aligning Segment Anything Model to Open Context via Reinforcement Learning [61.666973416903005]
Segment Anything Model (SAM)は、オープンワールドシナリオにおいて、プロンプトのガイダンスによって、その印象的な一般化機能を実証した。
オープンコンテキストにSAMをアライメントするための自動プロンプトのための新しいフレームワークAlignSAMを提案する。
論文 参考訳(メタデータ) (2024-06-01T16:21:39Z) - MAS-SAM: Segment Any Marine Animal with Aggregated Features [55.91291540810978]
そこで本研究では,海洋生物のセグメンテーションのためのMAS-SAMという新しい特徴学習フレームワークを提案する。
本手法により,グローバルな文脈的手がかりからよりリッチな海洋情報を抽出し,よりきめ細かな局部的詳細を抽出できる。
論文 参考訳(メタデータ) (2024-04-24T07:38:14Z) - Unleashing the Potential of SAM for Medical Adaptation via Hierarchical Decoding [15.401507589312702]
本稿では,医療画像の高速微調整のためのSegment Anything Model (SAM) の即時適応であるH-SAMを紹介する。
初期段階では、H-SAMはSAMのオリジナルのデコーダを使用して、より複雑なデコードプロセスの導出として、以前の確率マスクを生成する。
我々のH-SAMは、既存のプロンプトフリーSAMよりも平均Diceが4.78%改善していることを示す。
論文 参考訳(メタデータ) (2024-03-27T05:55:16Z) - WSI-SAM: Multi-resolution Segment Anything Model (SAM) for histopathology whole-slide images [8.179859593451285]
病理画像の正確なオブジェクト分割機能を備えたWSI-SAM, Segment Anything Model (SAM) を提案する。
トレーニングオーバーヘッドを最小限にしながら、トレーニング済みの知識を完全に活用するために、SAMは凍結し、最小限のパラメータしか導入しません。
本モデルでは, 膵管癌 in situ (DCIS) セグメンテーションタスクと乳癌転移セグメンテーションタスクにおいて, SAMを4.1, 2.5パーセント上回った。
論文 参考訳(メタデータ) (2024-03-14T10:30:43Z) - UN-SAM: Universal Prompt-Free Segmentation for Generalized Nuclei Images [47.59627416801523]
デジタル病理学において、正確な核分割は、組織の種類、染色プロトコル、イメージング条件の多様性によって、重要な課題である。
我々はUniversal prompt-free SAM framework for Nuclei segmentation (UN-SAM)を提案する。
例外的な性能を持つUN-SAMは、核インスタンスやセマンティックセグメンテーションの最先端、特にゼロショットシナリオにおける一般化能力を上回っている。
論文 参考訳(メタデータ) (2024-02-26T15:35:18Z) - Promoting Segment Anything Model towards Highly Accurate Dichotomous Image Segmentation [11.133337712285424]
本研究では,精度の高いオブジェクトセグメンテーションに向けてSegment Anything Model(SAM)を前進させるdis-SAMを提案する。
DIS-SAMは2段階のアプローチを採用しており、以前はプロンプトフリーのdisタスクを扱うように設計されていた改良されたアドバンストネットワークとSAMを統合している。
DIS-SAMは単純さにもかかわらずSAM、HQ-SAM、Pi-SAMを8.5%、最大で6.9%、最大で3.7%向上させる。
論文 参考訳(メタデータ) (2023-12-30T14:24:33Z) - Boosting Segment Anything Model Towards Open-Vocabulary Learning [69.24734826209367]
Segment Anything Model (SAM)は、新しいパラダイムビジョン基盤モデルとして登場した。
SAMは様々な領域で応用や適応を発見できるが、その主な制限はオブジェクトの意味を把握できないことである。
我々は,SAMとオープン語彙オブジェクト検出器をエンドツーエンドフレームワークでシームレスに統合するSamborを提案する。
論文 参考訳(メタデータ) (2023-12-06T17:19:00Z) - Stable Segment Anything Model [79.9005670886038]
SAM(Segment Anything Model)は、高品質なプロンプトが与えられた場合、顕著に迅速なセグメンテーションを実現する。
本稿では,SAMのセグメンテーション安定性について,多様なプロンプト特性のスペクトルにわたって包括的解析を行った。
1)SAMのセグメンテーション安定性を広範囲に改善し,2)SAMの強力なセグメンテーション効率と一般化を維持した。
論文 参考訳(メタデータ) (2023-11-27T12:51:42Z) - Beyond Adapting SAM: Towards End-to-End Ultrasound Image Segmentation via Auto Prompting [10.308637269138146]
超音波画像分割に適したユニバーサルモデルとしてSAMUSを提案する。
さらに、AutoSAMUSと表記されるエンドツーエンドで動作できるようにします。
AutoSAMUSは、SAMUSのマニュアルプロンプトエンコーダを置き換えるために自動プロンプトジェネレータ(APG)を導入することで実現されている。
論文 参考訳(メタデータ) (2023-09-13T09:15:20Z) - SAM Meets Robotic Surgery: An Empirical Study on Generalization,
Robustness and Adaptation [15.995869434429274]
Segment Anything Model (SAM) はセグメンテーションの基本モデルとして機能する。
ロボット外科領域におけるSAMの頑健性とゼロショットの一般化性について検討した。
論文 参考訳(メタデータ) (2023-08-14T14:09:41Z) - DeSAM: Decoupled Segment Anything Model for Generalizable Medical Image Segmentation [22.974876391669685]
Segment Anything Model (SAM) は、医用画像セグメンテーションのクロスドメインロバスト性を改善する可能性を示している。
SAMは手動でトリガーする時よりも、自動セグメンテーションのシナリオで大幅にパフォーマンスが低下する。
Decoupled SAMはSAMのマスクデコーダを2つの新しいモジュールを導入して変更する。
論文 参考訳(メタデータ) (2023-06-01T09:49:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。