論文の概要: De-LightSAM: Modality-Decoupled Lightweight SAM for Generalizable Medical Segmentation
- arxiv url: http://arxiv.org/abs/2407.14153v5
- Date: Tue, 01 Jul 2025 04:07:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-02 17:57:15.501028
- Title: De-LightSAM: Modality-Decoupled Lightweight SAM for Generalizable Medical Segmentation
- Title(参考訳): De-LightSAM: 一般化可能な医療セグメンテーションのためのモダリティデカップリング軽量SAM
- Authors: Qing Xu, Jiaxuan Li, Xiangjian He, Chenxin Li, Fiseha B. Tesem, Wenting Duan, Zhen Chen, Rong Qu, Jonathan M. Garibaldi, Chang Wen Chen,
- Abstract要約: 領域一般化医療画像セグメンテーションのためのモダリティ分離型軽量SAMを提案する。
具体的には、まず、様々なモダリティに対して識別的視覚特徴を生成する軽量なドメイン制御可能なイメージエンコーダ(DC-Encoder)を考案する。
最後に、一対一戦略を利用して独立デコードチャネルを提供するクエリ分離型モダリティデコーダ(QM-Decoder)を設計する。
- 参考スコア(独自算出の注目度): 28.16884929151585
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The universality of deep neural networks across different modalities and their generalization capabilities to unseen domains play an essential role in medical image segmentation. The recent segment anything model (SAM) has demonstrated strong adaptability across diverse natural scenarios. However, the huge computational costs, demand for manual annotations as prompts and conflict-prone decoding process of SAM degrade its generalization capabilities in medical scenarios. To address these limitations, we propose a modality-decoupled lightweight SAM for domain-generalized medical image segmentation, named De-LightSAM. Specifically, we first devise a lightweight domain-controllable image encoder (DC-Encoder) that produces discriminative visual features for diverse modalities. Further, we introduce the self-patch prompt generator (SP-Generator) to automatically generate high-quality dense prompt embeddings for guiding segmentation decoding. Finally, we design the query-decoupled modality decoder (QM-Decoder) that leverages a one-to-one strategy to provide an independent decoding channel for every modality, preventing mutual knowledge interference of different modalities. Moreover, we design a multi-modal decoupled knowledge distillation (MDKD) strategy to leverage robust common knowledge to complement domain-specific medical feature representations. Extensive experiments indicate that De-LightSAM outperforms state-of-the-arts in diverse medical imaging segmentation tasks, displaying superior modality universality and generalization capabilities. Especially, De-LightSAM uses only 2.0% parameters compared to SAM-H. The source code is available at https://github.com/xq141839/De-LightSAM.
- Abstract(参考訳): 異なるモダリティにまたがるディープニューラルネットワークの普遍性と、未確認領域への一般化能力は、医療画像セグメンテーションにおいて重要な役割を果たす。
最近のセグメンテーション・アズ・モデル(SAM)は、様々な自然シナリオに対して強い適応性を示している。
しかし、膨大な計算コスト、プロンプトとしての手動アノテーションの要求、SAMの競合を起こしやすいデコードプロセスは、医療シナリオにおける一般化能力を低下させる。
これらの制約に対処するために、ドメイン一般化医療画像分割のためのモダリティ分離型軽量SAM、De-LightSAMを提案する。
具体的には、まず、様々なモダリティに対して識別的視覚特徴を生成する軽量なドメイン制御可能なイメージエンコーダ(DC-Encoder)を考案する。
さらに,自己パッチプロンプトジェネレータ(SP-Generator)を導入し,セグメンテーション復号を導くための高品質な高密度プロンプト埋め込みを自動生成する。
最後に,全てのモダリティに対して独立したデコーディングチャネルを提供するために,1対1の戦略を利用するクエリ分離型モダリティデコーダ(QM-Decoder)を設計し,異なるモダリティの相互知識干渉を防止する。
さらに,ドメイン固有の医学的特徴表現を補完するために,堅牢な共通知識を活用するマルチモーダルデカップリング型知識蒸留(MDKD)戦略を設計する。
広範囲にわたる実験により、De-LightSAMは様々な医用画像のセグメンテーションタスクにおいて最先端の成果を上げ、優れたモダリティの普遍性と一般化能力を示した。
特にDe-LightSAMはSAM-Hに比べて2.0%しかパラメータを使用しません。
ソースコードはhttps://github.com/xq141839/De-LightSAMで入手できる。
関連論文リスト
- SAM-Guided Robust Representation Learning for One-Shot 3D Medical Image Segmentation [14.786629295011727]
医用医用画像分類(MIS)は,手動注記による医療専門家の負担が原因で,医療分析に不可欠である。
セグメンテーションモデル(SAM)の最近の出現はMISにおいて顕著な適応を示しているが、ワンショット医療画像セグメンテーション(MIS)には直接適用できない。
そこで我々は,SAMをワンショット3DMISに適応させるために,RRL-MedSAMという新しいSAM誘導型ロバスト表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-29T07:43:37Z) - Diffusion-empowered AutoPrompt MedSAM [24.89679427384491]
本稿では,ユーザビリティとセグメンテーション性能を向上させるために,SAMから派生したエンドツーエンドフレームワークであるAutoMedSAMを提案する。
AutoMedSAMは、新しい拡散ベースのクラスプロンプトエンコーダを導入しながら、MedSAMのイメージエンコーダとマスクデコーダ構造を維持している。
我々は,AutoMedSAMが臨床および非専門ユーザの両方に適用性を高めつつ,優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2025-02-05T03:08:17Z) - Learnable Prompting SAM-induced Knowledge Distillation for Semi-supervised Medical Image Segmentation [47.789013598970925]
半教師型医用画像分割のための知識蒸留フレームワークKnowSAMを提案する。
我々のモデルは最先端の半教師付きセグメンテーションアプローチより優れている。
論文 参考訳(メタデータ) (2024-12-18T11:19:23Z) - DB-SAM: Delving into High Quality Universal Medical Image Segmentation [100.63434169944853]
本稿では,2次元医療データと2次元医療データとのギャップを埋めるために,DB-SAMという二分岐型SAMフレームワークを提案する。
文献における最近の医療用SAMアダプタと比較して,DB-SAMは8.8%向上した。
論文 参考訳(メタデータ) (2024-10-05T14:36:43Z) - CC-SAM: SAM with Cross-feature Attention and Context for Ultrasound Image Segmentation [20.448864959103858]
Segment Anything Model (SAM) は、自然画像のセグメンテーションの領域で顕著な成功を収めた。
SAMは、低コントラスト、かすかな境界、複雑な形態、そして小さなサイズの物体を特徴とする医療画像に苦しむ。
医療領域におけるSAMの性能を高めるために,包括的修正を導入する。
論文 参考訳(メタデータ) (2024-07-31T22:24:05Z) - ASPS: Augmented Segment Anything Model for Polyp Segmentation [77.25557224490075]
SAM(Segment Anything Model)は、ポリープセグメンテーションに先例のないポテンシャルを導入している。
SAMのTransformerベースの構造は、グローバルおよび低周波情報を優先する。
CFAはトレーニング可能なCNNエンコーダブランチと凍結したViTエンコーダを統合し、ドメイン固有の知識の統合を可能にする。
論文 参考訳(メタデータ) (2024-06-30T14:55:32Z) - MAS-SAM: Segment Any Marine Animal with Aggregated Features [55.91291540810978]
そこで本研究では,海洋生物のセグメンテーションのためのMAS-SAMという新しい特徴学習フレームワークを提案する。
本手法により,グローバルな文脈的手がかりからよりリッチな海洋情報を抽出し,よりきめ細かな局部的詳細を抽出できる。
論文 参考訳(メタデータ) (2024-04-24T07:38:14Z) - Unleashing the Potential of SAM for Medical Adaptation via Hierarchical Decoding [15.401507589312702]
本稿では,医療画像の高速微調整のためのSegment Anything Model (SAM) の即時適応であるH-SAMを紹介する。
初期段階では、H-SAMはSAMのオリジナルのデコーダを使用して、より複雑なデコードプロセスの導出として、以前の確率マスクを生成する。
我々のH-SAMは、既存のプロンプトフリーSAMよりも平均Diceが4.78%改善していることを示す。
論文 参考訳(メタデータ) (2024-03-27T05:55:16Z) - SAMCT: Segment Any CT Allowing Labor-Free Task-Indicator Prompts [28.171383990186904]
我々は、公開データセットから1.1MのCT画像と5Mのマスクからなる大規模なCTデータセットを構築した。
我々は、労働自由なプロンプトを可能にする強力な基盤モデルSAMCTを提案する。
SAMに基づいてSAMCTはさらに、CNNイメージエンコーダ、クロスブランチインタラクションモジュール、タスクインディケータプロンプトエンコーダを備えている。
論文 参考訳(メタデータ) (2024-03-20T02:39:15Z) - WSI-SAM: Multi-resolution Segment Anything Model (SAM) for histopathology whole-slide images [8.179859593451285]
病理画像の正確なオブジェクト分割機能を備えたWSI-SAM, Segment Anything Model (SAM) を提案する。
トレーニングオーバーヘッドを最小限にしながら、トレーニング済みの知識を完全に活用するために、SAMは凍結し、最小限のパラメータしか導入しません。
本モデルでは, 膵管癌 in situ (DCIS) セグメンテーションタスクと乳癌転移セグメンテーションタスクにおいて, SAMを4.1, 2.5パーセント上回った。
論文 参考訳(メタデータ) (2024-03-14T10:30:43Z) - UN-SAM: Universal Prompt-Free Segmentation for Generalized Nuclei Images [47.59627416801523]
デジタル病理学において、正確な核分割は、組織の種類、染色プロトコル、イメージング条件の多様性によって、重要な課題である。
我々はUniversal prompt-free SAM framework for Nuclei segmentation (UN-SAM)を提案する。
例外的な性能を持つUN-SAMは、核インスタンスやセマンティックセグメンテーションの最先端、特にゼロショットシナリオにおける一般化能力を上回っている。
論文 参考訳(メタデータ) (2024-02-26T15:35:18Z) - AutoSAM: Adapting SAM to Medical Images by Overloading the Prompt
Encoder [101.28268762305916]
この作業では、Segment Anything Modelを同じ入力イメージで動作するエンコーダに置き換える。
複数の医用画像とビデオのベンチマークで最先端の結果を得る。
内部の知識を検査し、軽量なセグメンテーションソリューションを提供するために、浅いデコンボリューションネットワークによってマスクに復号化することを学ぶ。
論文 参考訳(メタデータ) (2023-06-10T07:27:00Z) - Medical SAM Adapter: Adapting Segment Anything Model for Medical Image
Segmentation [51.770805270588625]
Segment Anything Model (SAM)は画像セグメンテーションの分野で最近人気を集めている。
近年の研究では、SAMは医用画像のセグメンテーションにおいて過小評価されている。
ドメイン固有の医療知識をセグメンテーションモデルに組み込んだ医療SAMアダプタ(Med-SA)を提案する。
論文 参考訳(メタデータ) (2023-04-25T07:34:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。