論文の概要: Mask-Enhanced Segment Anything Model for Tumor Lesion Semantic
Segmentation
- arxiv url: http://arxiv.org/abs/2403.05912v1
- Date: Sat, 9 Mar 2024 13:37:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 11:55:24.995373
- Title: Mask-Enhanced Segment Anything Model for Tumor Lesion Semantic
Segmentation
- Title(参考訳): 腫瘍病変セマンティクスセグメンテーションのためのマスク強調セグメントanyモデル
- Authors: Hairong Shi, Songhao Han, Shaofei Huang, Yue Liao, Guanbin Li,
Xiangxing Kong, Hua Zhu, Xiaomu Wang and Si Liu
- Abstract要約: Mask-Enhanced SAM (M-SAM) は3次元腫瘍病変の分節に適した革新的なアーキテクチャである。
本稿では,M-SAM内におけるMask-Enhanced Adapter (MEA) を提案する。
- 参考スコア(独自算出の注目度): 49.916468280857885
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tumor lesion segmentation on CT or MRI images plays a critical role in cancer
diagnosis and treatment planning. Considering the inherent differences in tumor
lesion segmentation data across various medical imaging modalities and
equipment, integrating medical knowledge into the Segment Anything Model (SAM)
presents promising capability due to its versatility and generalization
potential. Recent studies have attempted to enhance SAM with medical expertise
by pre-training on large-scale medical segmentation datasets. However,
challenges still exist in 3D tumor lesion segmentation owing to tumor
complexity and the imbalance in foreground and background regions. Therefore,
we introduce Mask-Enhanced SAM (M-SAM), an innovative architecture tailored for
3D tumor lesion segmentation. We propose a novel Mask-Enhanced Adapter (MEA)
within M-SAM that enriches the semantic information of medical images with
positional data from coarse segmentation masks, facilitating the generation of
more precise segmentation masks. Furthermore, an iterative refinement scheme is
implemented in M-SAM to refine the segmentation masks progressively, leading to
improved performance. Extensive experiments on seven tumor lesion segmentation
datasets indicate that our M-SAM not only achieves high segmentation accuracy
but also exhibits robust generalization.
- Abstract(参考訳): CTやMRI画像上の腫瘍病変の断片化は、がんの診断と治療計画において重要な役割を果たす。
各種医用画像・装置における腫瘍病変分画データの本質的差異を考慮すると,segment anything model (sam) に医学的知識を統合することは,その汎用性と一般化の可能性から有望な能力を示す。
近年の研究では、大規模医療セグメンテーションデータセットの事前トレーニングにより、SAMの医療的専門性の向上が試みられている。
しかし, 腫瘍の複雑化と前頭および背景領域の不均衡により, 3次元の腫瘍病変セグメンテーションにはまだ課題がある。
そこで我々は, 3D 腫瘍病変の分節化に適した斬新なアーキテクチャである Mask-Enhanced SAM (M-SAM) を導入する。
本研究では,m-sam内の新しいマスクエンハンスドアダプタ (mea) を提案する。これは,粗いセグメンテーションマスクからの位置データを用いて医用画像の意味情報を強化し,より精密なセグメンテーションマスクの生成を容易にする。
さらに, M-SAMに繰り返し改良方式を実装し, セグメンテーションマスクを徐々に改良し, 性能が向上した。
7つの腫瘍病変セグメンテーションデータセットの大規模な実験は、我々のM-SAMは高いセグメンテーション精度を達成するだけでなく、堅牢な一般化も示している。
関連論文リスト
- Fully Automated Tumor Segmentation for Brain MRI data using Multiplanner
UNet [0.29998889086656577]
本研究は,3つの挑戦的データセットにまたがる腫瘍サブリージョンの分割におけるマルチプランナーU-Net(MPUnet)アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2024-01-12T10:46:19Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - Segment Anything Model for Brain Tumor Segmentation [4.3423020845279225]
グリオーマ(Glioma)は、個体に重大な健康リスクをもたらす脳腫瘍である。
Meta AIがリリースしたSegment Anything Modelは、画像セグメンテーションの基本モデルであり、ゼロサンプルの一般化機能に優れています。
そこで本研究では, SAMの脳腫瘍セグメンテーションにおける性能について検討し, モデル微調整がなければ, SAMと現状SOTAモデルとの間には相違があることを見出した。
論文 参考訳(メタデータ) (2023-09-15T14:33:03Z) - AMLP:Adaptive Masking Lesion Patches for Self-supervised Medical Image
Segmentation [67.97926983664676]
自己監督型マスク画像モデリングは自然画像に対して有望な結果を示した。
しかし,このような手法を医用画像に直接適用することは依然として困難である。
適応型マスキング病変パッチ(AMLP)の自己管理型医用画像分割フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-08T13:18:10Z) - CARE: A Large Scale CT Image Dataset and Clinical Applicable Benchmark
Model for Rectal Cancer Segmentation [8.728236864462302]
CT画像の直腸癌セグメンテーションは、タイムリーな臨床診断、放射線治療、経過観察において重要な役割を担っている。
これらの障害は直腸の複雑な解剖学的構造と直腸癌の鑑別診断の困難から生じる。
これらの課題に対処するため,本研究では,正常直腸と癌直腸の両方にピクセルレベルのアノテーションを付加した,新しい大規模直腸癌CT画像データセットCAREを導入する。
また,U-SAMと命名された新しい癌病変セグメンテーションベンチマークモデルを提案する。
このモデルは、迅速な情報を取り入れることで、腹部器官の複雑な解剖学的構造によって引き起こされる課題に対処するように設計されている。
論文 参考訳(メタデータ) (2023-08-16T10:51:27Z) - 3DSAM-adapter: Holistic Adaptation of SAM from 2D to 3D for Promptable
Medical Image Segmentation [56.50064853710202]
医用画像の領域分割を行うために, SAMを2次元から3次元に変換する新しい適応法を提案する。
本モデルでは, 腎腫瘍, 膵腫瘍, 大腸癌の3つのタスクのうち8.25%, 29.87%, 10.11%の3つのタスクにおいて, ドメイン・オブ・ザ・アーティヴ・メディカル・イメージ・セグメンテーション・モデルより優れ, 肝腫瘍セグメンテーションでも同様の性能が得られる。
論文 参考訳(メタデータ) (2023-06-23T12:09:52Z) - Comparative Analysis of Segment Anything Model and U-Net for Breast
Tumor Detection in Ultrasound and Mammography Images [0.15833270109954137]
この技術は、2つの高度なディープラーニングアーキテクチャ、すなわち U-Net と SAM を腫瘍セグメンテーションに用いている。
U-Netモデルは医用画像セグメンテーション用に特別に設計されている。
事前訓練されたSAMアーキテクチャには、空間的依存関係をキャプチャし、セグメンテーション結果を生成するメカニズムが組み込まれている。
論文 参考訳(メタデータ) (2023-06-21T18:49:21Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z) - Expectation-Maximization Regularized Deep Learning for Weakly Supervised
Tumor Segmentation for Glioblastoma [8.24450401153384]
本研究では,弱監督腫瘍分割のためのEM正規化ディープラーニング(EMReDL)モデルを提案する。
この枠組みは周囲の脳組織への拡散浸潤を特徴とする悪性腫瘍の一種であるグリオ芽腫に特化していた。
論文 参考訳(メタデータ) (2021-01-21T18:14:43Z) - Scale-Space Autoencoders for Unsupervised Anomaly Segmentation in Brain
MRI [47.26574993639482]
本研究では, 異常セグメンテーション性能の向上と, ネイティブ解像度で入力データのより鮮明な再構成を行う汎用能力を示す。
ラプラシアンピラミッドのモデリングにより、複数のスケールで病変のデライン化と集約が可能になる。
論文 参考訳(メタデータ) (2020-06-23T09:20:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。