論文の概要: MedSAM-CA: A CNN-Augmented ViT with Attention-Enhanced Multi-Scale Fusion for Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2506.23700v1
- Date: Mon, 30 Jun 2025 10:24:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:54.01506
- Title: MedSAM-CA: A CNN-Augmented ViT with Attention-Enhanced Multi-Scale Fusion for Medical Image Segmentation
- Title(参考訳): MedSAM-CA : 医用画像分割用CNN強化型マルチスケール核融合装置
- Authors: Peiting Tian, Xi Chen, Haixia Bi, Fan Li,
- Abstract要約: アーキテクチャレベルの微調整手法であるMedSAM-CAを提案する。
皮膚内視鏡のデータセットでは、MedSAM-CAは全トレーニングデータのわずか2%で94.43%のDiceを達成し、全データトレーニングパフォーマンスの97.25%に達した。
- 参考スコア(独自算出の注目度): 10.36607107686106
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Medical image segmentation plays a crucial role in clinical diagnosis and treatment planning, where accurate boundary delineation is essential for precise lesion localization, organ identification, and quantitative assessment. In recent years, deep learning-based methods have significantly advanced segmentation accuracy. However, two major challenges remain. First, the performance of these methods heavily relies on large-scale annotated datasets, which are often difficult to obtain in medical scenarios due to privacy concerns and high annotation costs. Second, clinically challenging scenarios, such as low contrast in certain imaging modalities and blurry lesion boundaries caused by malignancy, still pose obstacles to precise segmentation. To address these challenges, we propose MedSAM-CA, an architecture-level fine-tuning approach that mitigates reliance on extensive manual annotations by adapting the pretrained foundation model, Medical Segment Anything (MedSAM). MedSAM-CA introduces two key components: the Convolutional Attention-Enhanced Boundary Refinement Network (CBR-Net) and the Attention-Enhanced Feature Fusion Block (Atte-FFB). CBR-Net operates in parallel with the MedSAM encoder to recover boundary information potentially overlooked by long-range attention mechanisms, leveraging hierarchical convolutional processing. Atte-FFB, embedded in the MedSAM decoder, fuses multi-level fine-grained features from skip connections in CBR-Net with global representations upsampled within the decoder to enhance boundary delineation accuracy. Experiments on publicly available datasets covering dermoscopy, CT, and MRI imaging modalities validate the effectiveness of MedSAM-CA. On dermoscopy dataset, MedSAM-CA achieves 94.43% Dice with only 2% of full training data, reaching 97.25% of full-data training performance, demonstrating strong effectiveness in low-resource clinical settings.
- Abstract(参考訳): 臨床診断や治療計画では, 正確な病変の特定, 臓器の同定, 定量的評価に, 正確な境界線が不可欠である。
近年,深層学習に基づく手法はセグメンテーションの精度が著しく向上している。
しかし、大きな課題が2つ残っている。
まず、これらの手法の性能は大規模アノテートデータセットに大きく依存しており、プライバシの懸念やアノテーションのコストが高いため、医学的なシナリオでは入手が難しいことが多い。
第二に、特定の画像モダリティの低コントラストや悪性腫瘍によるぼやけた病変の境界といった臨床的に困難なシナリオは、依然として正確なセグメンテーションに障害を引き起こす。
これらの課題に対処するため,MedSAM-CAを提案する。MedSAM-CAは,事前訓練された基礎モデルであるMedSAM Anything(MedSAM)を適用することで,広範な手動アノテーションへの依存を軽減するアーキテクチャレベルの微調整手法である。
MedSAM-CA は Convolutional Attention-Enhanced boundary Refinement Network (CBR-Net) と Attention-Enhanced Feature Fusion Block (Atte-FFB) という2つの重要なコンポーネントを導入している。
CBR-Netは、MedSAMエンコーダと並行して動作し、階層的畳み込み処理を利用して、長距離の注意機構によって見落とされる可能性のある境界情報を復元する。
MedSAMデコーダに埋め込まれたAtte-FFBは、CBR-Netのスキップ接続から多層的なきめ細かい特徴を融合し、デコーダ内に大域的な表現をアップサンプリングし、境界デラインの精度を高める。
MedSAM-CAの有効性を検証するために、皮膚内視鏡、CT、MRI画像モダリティを網羅した公開データセットの実験を行った。
皮膚内視鏡のデータセットでは、MedSAM-CAは全トレーニングデータのわずか2%で94.43%のDiceを達成し、全データのトレーニング性能の97.25%に達した。
関連論文リスト
- TABNet: A Triplet Augmentation Self-Recovery Framework with Boundary-Aware Pseudo-Labels for Medical Image Segmentation [4.034121387622003]
本稿では,医用画像分割フレームワークTAB Netを提案する。
三重化自己回復モジュール(TAS)と境界対応擬似ラベル監視モジュール(BAP)から構成されている。
我々は,TAB Netが,スクリブルベースの弱教師付きセグメンテーションにおいて,最先端の手法を著しく上回ることを示す。
論文 参考訳(メタデータ) (2025-07-03T07:50:00Z) - SSS: Semi-Supervised SAM-2 with Efficient Prompting for Medical Imaging Segmentation [18.41555492374031]
SSS(Semi-Supervised SAM-2)は、SAM-2の頑健な特徴抽出機能を活用して、ラベルなしの医療画像における潜在知識を明らかにする新しいアプローチである。
実験では、SSSはBHSD上での平均Diceスコアを53.15とし、+3.65Diceよりも上回っている。
論文 参考訳(メタデータ) (2025-06-10T16:09:40Z) - ICH-SCNet: Intracerebral Hemorrhage Segmentation and Prognosis Classification Network Using CLIP-guided SAM mechanism [12.469269425813607]
脳内出血 (ICH) は脳卒中で最も致命的なサブタイプであり, 障害の発生頻度が高いことが特徴である。
既存のアプローチでは、これらの2つのタスクを独立して処理し、主にデータのみにフォーカスする。
本稿では,ICHセグメンテーションと予後分類の両方のために設計されたマルチタスクネットワークICH-SCNetを提案する。
論文 参考訳(メタデータ) (2024-11-07T12:34:25Z) - Manifold-Aware Local Feature Modeling for Semi-Supervised Medical Image Segmentation [20.69908466577971]
マニフォールド対応局所特徴モデリングネットワーク (MANet) を導入し, 多様体監視信号を組み込むことでU-Netアーキテクチャを向上する。
ACDC、LA、Pancreas-NIHといったデータセットに関する我々の実験は、MANetがパフォーマンス指標における最先端の手法を一貫して超越していることを示しています。
論文 参考訳(メタデータ) (2024-10-14T08:40:35Z) - MedCLIP-SAMv2: Towards Universal Text-Driven Medical Image Segmentation [2.2585213273821716]
MedCLIP-SAMv2はCLIPとSAMモデルを統合して臨床スキャンのセグメンテーションを行う新しいフレームワークである。
提案手法は,DHN-NCE(Decoupled Hard Negative Noise Contrastive Estimation)によるBiomedCLIPモデルの微調整を含む。
また,ゼロショットセグメンテーションラベルを弱教師付きパラダイム内で使用することにより,セグメンテーション品質をさらに向上する。
論文 参考訳(メタデータ) (2024-09-28T23:10:37Z) - Semi- and Weakly-Supervised Learning for Mammogram Mass Segmentation with Limited Annotations [49.33388736227072]
本稿では,マスセグメンテーションのための半弱教師付き学習フレームワークを提案する。
良好な性能を得るために, 限られた強ラベルのサンプルと十分な弱ラベルのサンプルを用いる。
CBIS-DDSMおよびINbreastデータセットを用いた実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2024-03-14T12:05:25Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - Improving Multiple Sclerosis Lesion Segmentation Across Clinical Sites:
A Federated Learning Approach with Noise-Resilient Training [75.40980802817349]
深層学習モデルは、自動的にMS病変を分節する約束を示しているが、正確な注釈付きデータの不足は、この分野の進歩を妨げている。
我々は,MS病変の不均衡分布とファジィ境界を考慮したDecoupled Hard Label Correction(DHLC)戦略を導入する。
また,集約型中央モデルを利用したCELC(Centrally Enhanced Label Correction)戦略も導入した。
論文 参考訳(メタデータ) (2023-08-31T00:36:10Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z) - Reliable Joint Segmentation of Retinal Edema Lesions in OCT Images [55.83984261827332]
本稿では,信頼性の高いマルチスケールウェーブレットエンハンストランスネットワークを提案する。
本研究では,ウェーブレット型特徴抽出器ネットワークとマルチスケール変圧器モジュールを統合したセグメンテーションバックボーンを開発した。
提案手法は,他の最先端セグメンテーション手法と比較して信頼性の高いセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T07:32:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。