論文の概要: BiSeg-SAM: Weakly-Supervised Post-Processing Framework for Boosting Binary Segmentation in Segment Anything Models
- arxiv url: http://arxiv.org/abs/2504.01452v1
- Date: Wed, 02 Apr 2025 08:04:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 13:25:39.035840
- Title: BiSeg-SAM: Weakly-Supervised Post-Processing Framework for Boosting Binary Segmentation in Segment Anything Models
- Title(参考訳): BiSeg-SAM: セグメンテーションモデルにおけるバイナリセグメンテーションの強化のための弱修正後処理フレームワーク
- Authors: Encheng Su, Hu Cao, Alois Knoll,
- Abstract要約: BiSeg-SAMは、ポリープと皮膚病変の分節のための弱い制御されたプロンプトと境界の精製ネットワークである。
本手法は5つのポリプデータセットと1つの皮膚がんデータセットでテストした場合, 最先端(SOTA)法よりも有意な優位性を示した。
- 参考スコア(独自算出の注目度): 6.74659948545092
- License:
- Abstract: Accurate segmentation of polyps and skin lesions is essential for diagnosing colorectal and skin cancers. While various segmentation methods for polyps and skin lesions using fully supervised deep learning techniques have been developed, the pixel-level annotation of medical images by doctors is both time-consuming and costly. Foundational vision models like the Segment Anything Model (SAM) have demonstrated superior performance; however, directly applying SAM to medical segmentation may not yield satisfactory results due to the lack of domain-specific medical knowledge. In this paper, we propose BiSeg-SAM, a SAM-guided weakly supervised prompting and boundary refinement network for the segmentation of polyps and skin lesions. Specifically, we fine-tune SAM combined with a CNN module to learn local features. We introduce a WeakBox with two functions: automatically generating box prompts for the SAM model and using our proposed Multi-choice Mask-to-Box (MM2B) transformation for rough mask-to-box conversion, addressing the mismatch between coarse labels and precise predictions. Additionally, we apply scale consistency (SC) loss for prediction scale alignment. Our DetailRefine module enhances boundary precision and segmentation accuracy by refining coarse predictions using a limited amount of ground truth labels. This comprehensive approach enables BiSeg-SAM to achieve excellent multi-task segmentation performance. Our method demonstrates significant superiority over state-of-the-art (SOTA) methods when tested on five polyp datasets and one skin cancer dataset.
- Abstract(参考訳): ポリープと皮膚病変の正確なセグメンテーションは、大腸癌と皮膚がんの診断に不可欠である。
完全教師付き深層学習技術を用いた多彩なポリープと皮膚病変のセグメンテーション法が開発されているが、医師による医用画像のピクセルレベルのアノテーションは時間と費用がかかる。
SAM(Segment Anything Model)のような基礎的なビジョンモデルは優れた性能を示してきたが、ドメイン固有の医療知識が欠如しているため、SAMを直接医療セグメントに適用しても十分な結果が得られない可能性がある。
本稿では,ポリプと皮膚病変のセグメンテーションのためのSAM-guided weak-superviseding and boundary refinement networkであるBiSeg-SAMを提案する。
具体的には、SAMをCNNモジュールと組み合わせて局所的な特徴を学習する。
SAMモデルのボックスプロンプトを自動生成し,提案したMulti-choice Mask-to-Box(MM2B)変換を用いて粗面変換を行い,粗面ラベル間のミスマッチに対処する。
さらに、予測スケールアライメントにスケール整合性(SC)ロスを適用した。
我々のDetailRefineモジュールは、限られた量の基底真理ラベルを用いて粗い予測を精算することにより、境界精度とセグメンテーション精度を向上させる。
この包括的なアプローチにより、BiSeg-SAMは優れたマルチタスクセグメンテーション性能を実現することができる。
本手法は5つのポリプデータセットと1つの皮膚がんデータセットでテストした場合, 最先端(SOTA)法よりも有意な優位性を示した。
関連論文リスト
- Learnable Prompting SAM-induced Knowledge Distillation for Semi-supervised Medical Image Segmentation [47.789013598970925]
半教師型医用画像分割のための知識蒸留フレームワークKnowSAMを提案する。
我々のモデルは最先端の半教師付きセグメンテーションアプローチより優れている。
論文 参考訳(メタデータ) (2024-12-18T11:19:23Z) - SAM-Mamba: Mamba Guided SAM Architecture for Generalized Zero-Shot Polyp Segmentation [3.075778955462259]
大腸内視鏡検査におけるポリープセグメンテーションは大腸癌の検出に不可欠である。
畳み込みニューラルネットワーク(CNN)に基づく従来のセグメンテーションモデルは、詳細なパターンとグローバルなコンテキストを捉えるのに苦労している。
効率的なポリープセグメンテーションのためのMamba-guided Segment Anything Model (SAM-Mamba)を提案する。
論文 参考訳(メタデータ) (2024-12-11T15:47:54Z) - MedCLIP-SAMv2: Towards Universal Text-Driven Medical Image Segmentation [2.2585213273821716]
MedCLIP-SAMv2はCLIPとSAMモデルを統合して臨床スキャンのセグメンテーションを行う新しいフレームワークである。
提案手法は,DHN-NCE(Decoupled Hard Negative Noise Contrastive Estimation)によるBiomedCLIPモデルの微調整を含む。
また,ゼロショットセグメンテーションラベルを弱教師付きパラダイム内で使用することにより,セグメンテーション品質をさらに向上する。
論文 参考訳(メタデータ) (2024-09-28T23:10:37Z) - ASPS: Augmented Segment Anything Model for Polyp Segmentation [77.25557224490075]
SAM(Segment Anything Model)は、ポリープセグメンテーションに先例のないポテンシャルを導入している。
SAMのTransformerベースの構造は、グローバルおよび低周波情報を優先する。
CFAはトレーニング可能なCNNエンコーダブランチと凍結したViTエンコーダを統合し、ドメイン固有の知識の統合を可能にする。
論文 参考訳(メタデータ) (2024-06-30T14:55:32Z) - Uncertainty-Aware Adapter: Adapting Segment Anything Model (SAM) for Ambiguous Medical Image Segmentation [20.557472889654758]
Segment Anything Model (SAM) は自然画像のセグメンテーションにおいて大きな成功を収めた。
自然画像とは異なり、医療画像の多くの組織や病変はぼやけており、曖昧である可能性がある。
本研究では,不確実性を認識した医療画像のセグメンテーションのためにSAMを効率よく微調整するUncertainty-aware Adapterという新しいモジュールを提案する。
論文 参考訳(メタデータ) (2024-03-16T14:11:54Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - Segment Anything Model-guided Collaborative Learning Network for
Scribble-supervised Polyp Segmentation [45.15517909664628]
ポリープのセグメンテーションは、初期におけるポリープの正確な位置決定に重要な役割を担っている。
診断中の医師によるポリープ画像に対するピクセルワイドアノテーションは、時間と費用の両方がかかる。
本稿では,スクリブル制御ポリプセグメンテーションのためのSAM誘導協調学習ネットワーク(SAM-CLNet)を提案する。
論文 参考訳(メタデータ) (2023-12-01T03:07:13Z) - SurgicalSAM: Efficient Class Promptable Surgical Instrument Segmentation [65.52097667738884]
そこで本研究では,SAMの知識と外科的特異的情報を統合し,汎用性を向上させるための,新しいエンドツーエンドの効率的なチューニング手法であるScientialSAMを紹介した。
具体的には,タイピングのための軽量なプロトタイプベースクラスプロンプトエンコーダを提案し,クラスプロトタイプから直接プロンプト埋め込みを生成する。
また,手術器具カテゴリー間のクラス間差異の低さに対応するために,コントラッシブなプロトタイプ学習を提案する。
論文 参考訳(メタデータ) (2023-08-17T02:51:01Z) - Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。