論文の概要: Mask-Enhanced Segment Anything Model for Tumor Lesion Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2403.05912v2
- Date: Thu, 11 Jul 2024 09:58:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-12 23:07:33.007445
- Title: Mask-Enhanced Segment Anything Model for Tumor Lesion Semantic Segmentation
- Title(参考訳): 腫瘍病変セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・モデル
- Authors: Hairong Shi, Songhao Han, Shaofei Huang, Yue Liao, Guanbin Li, Xiangxing Kong, Hua Zhu, Xiaomu Wang, Si Liu,
- Abstract要約: Mask-Enhanced SAM (M-SAM) は, 腫瘍の3次元セグメント化に適した革新的なアーキテクチャである。
本稿では,M-SAM内におけるMask-Enhanced Adapter (MEA) を提案する。
我々のM-SAMは高いセグメンテーション精度を達成し、またロバストな一般化を示す。
- 参考スコア(独自算出の注目度): 48.107348956719775
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tumor lesion segmentation on CT or MRI images plays a critical role in cancer diagnosis and treatment planning. Considering the inherent differences in tumor lesion segmentation data across various medical imaging modalities and equipment, integrating medical knowledge into the Segment Anything Model (SAM) presents promising capability due to its versatility and generalization potential. Recent studies have attempted to enhance SAM with medical expertise by pre-training on large-scale medical segmentation datasets. However, challenges still exist in 3D tumor lesion segmentation owing to tumor complexity and the imbalance in foreground and background regions. Therefore, we introduce Mask-Enhanced SAM (M-SAM), an innovative architecture tailored for 3D tumor lesion segmentation. We propose a novel Mask-Enhanced Adapter (MEA) within M-SAM that enriches the semantic information of medical images with positional data from coarse segmentation masks, facilitating the generation of more precise segmentation masks. Furthermore, an iterative refinement scheme is implemented in M-SAM to refine the segmentation masks progressively, leading to improved performance. Extensive experiments on seven tumor lesion segmentation datasets indicate that our M-SAM not only achieves high segmentation accuracy but also exhibits robust generalization. The code is available at https://github.com/nanase1025/M-SAM.
- Abstract(参考訳): CTやMRI画像上の腫瘍病変の断片化は、がんの診断と治療計画において重要な役割を担っている。
様々な医用画像モダリティや機器にまたがる腫瘍病変のセグメンテーションデータに固有の差異を考慮すると、SAM(Segment Anything Model)に医療知識を統合することは、その汎用性と一般化の可能性から、有望な能力を示す。
近年の研究では、大規模医療セグメンテーションデータセットの事前トレーニングにより、SAMを医療的専門知識で強化しようと試みている。
しかし, 腫瘍の複雑化と前頭および背景領域の不均衡により, 3次元の腫瘍病変セグメンテーションにはまだ課題が残っている。
そこで本研究では, 3D 腫瘍病変の分節化に適した斬新なアーキテクチャである Mask-Enhanced SAM (M-SAM) を紹介する。
本稿では,M-SAM内におけるMask-Enhanced Adapter(MEA)を提案する。これは,粗いセグメンテーションマスクからの位置データを用いて医用画像のセグメンテーション情報を強化し,より正確なセグメンテーションマスクの作成を容易にする。
さらに, M-SAMに繰り返し改良方式を実装し, セグメンテーションマスクを徐々に改良し, 性能が向上した。
7つの腫瘍病変セグメンテーションデータセットの大規模な実験は、我々のM-SAMは高いセグメンテーション精度を達成するだけでなく、堅牢な一般化も示している。
コードはhttps://github.com/nanase1025/M-SAMで公開されている。
関連論文リスト
- MedCLIP-SAMv2: Towards Universal Text-Driven Medical Image Segmentation [2.2585213273821716]
MedCLIP-SAMv2はCLIPとSAMモデルを統合して臨床スキャンのセグメンテーションを行う新しいフレームワークである。
提案手法は,DHN-NCE(Decoupled Hard Negative Noise Contrastive Estimation)によるBiomedCLIPモデルの微調整を含む。
また,ゼロショットセグメンテーションラベルを弱教師付きパラダイム内で使用することにより,セグメンテーション品質をさらに向上する。
論文 参考訳(メタデータ) (2024-09-28T23:10:37Z) - MedCLIP-SAM: Bridging Text and Image Towards Universal Medical Image Segmentation [2.2585213273821716]
本稿では,CLIPモデルとSAMモデルを組み合わせて臨床スキャンのセグメンテーションを生成する新しいフレームワーク MedCLIP-SAM を提案する。
3つの多様なセグメンテーションタスクと医用画像モダリティを広範囲にテストすることにより、提案手法は優れた精度を示した。
論文 参考訳(メタデータ) (2024-03-29T15:59:11Z) - Fully Automated Tumor Segmentation for Brain MRI data using Multiplanner
UNet [0.29998889086656577]
本研究は,3つの挑戦的データセットにまたがる腫瘍サブリージョンの分割におけるマルチプランナーU-Net(MPUnet)アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2024-01-12T10:46:19Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - Segment Anything Model for Brain Tumor Segmentation [3.675657219384998]
グリオーマ(Glioma)は、個体に重大な健康リスクをもたらす脳腫瘍である。
Meta AIがリリースしたSegment Anything Modelは、画像セグメンテーションの基本モデルであり、ゼロサンプルの一般化機能に優れています。
そこで本研究では, SAMの脳腫瘍セグメンテーションにおける性能について検討し, モデル微調整がなければ, SAMと現状SOTAモデルとの間には相違があることを見出した。
論文 参考訳(メタデータ) (2023-09-15T14:33:03Z) - AMLP:Adaptive Masking Lesion Patches for Self-supervised Medical Image
Segmentation [67.97926983664676]
自己監督型マスク画像モデリングは自然画像に対して有望な結果を示した。
しかし,このような手法を医用画像に直接適用することは依然として困難である。
適応型マスキング病変パッチ(AMLP)の自己管理型医用画像分割フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-08T13:18:10Z) - 3DSAM-adapter: Holistic adaptation of SAM from 2D to 3D for promptable tumor segmentation [52.699139151447945]
医用画像の領域分割を行うために, SAMを2次元から3次元に変換する新しい適応法を提案する。
本モデルでは, 腎腫瘍, 膵腫瘍, 大腸癌の3つのタスクのうち8.25%, 29.87%, 10.11%の3つのタスクにおいて, ドメイン・オブ・ザ・アーティヴ・メディカル・イメージ・セグメンテーション・モデルより優れ, 肝腫瘍セグメンテーションでも同様の性能が得られる。
論文 参考訳(メタデータ) (2023-06-23T12:09:52Z) - Comparative Analysis of Segment Anything Model and U-Net for Breast
Tumor Detection in Ultrasound and Mammography Images [0.15833270109954137]
この技術は、2つの高度なディープラーニングアーキテクチャ、すなわち U-Net と SAM を腫瘍セグメンテーションに用いている。
U-Netモデルは医用画像セグメンテーション用に特別に設計されている。
事前訓練されたSAMアーキテクチャには、空間的依存関係をキャプチャし、セグメンテーション結果を生成するメカニズムが組み込まれている。
論文 参考訳(メタデータ) (2023-06-21T18:49:21Z) - Medical SAM Adapter: Adapting Segment Anything Model for Medical Image
Segmentation [51.770805270588625]
Segment Anything Model (SAM)は画像セグメンテーションの分野で最近人気を集めている。
近年の研究では、SAMは医用画像のセグメンテーションにおいて過小評価されている。
ドメイン固有の医療知識をセグメンテーションモデルに組み込んだ医療SAMアダプタ(Med-SA)を提案する。
論文 参考訳(メタデータ) (2023-04-25T07:34:22Z) - Scale-Space Autoencoders for Unsupervised Anomaly Segmentation in Brain
MRI [47.26574993639482]
本研究では, 異常セグメンテーション性能の向上と, ネイティブ解像度で入力データのより鮮明な再構成を行う汎用能力を示す。
ラプラシアンピラミッドのモデリングにより、複数のスケールで病変のデライン化と集約が可能になる。
論文 参考訳(メタデータ) (2020-06-23T09:20:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。