論文の概要: GBT-SAM: A Parameter-Efficient Depth-Aware Model for Generalizable Brain tumour Segmentation on mp-MRI
- arxiv url: http://arxiv.org/abs/2503.04325v1
- Date: Thu, 06 Mar 2025 11:18:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-07 15:58:32.760307
- Title: GBT-SAM: A Parameter-Efficient Depth-Aware Model for Generalizable Brain tumour Segmentation on mp-MRI
- Title(参考訳): GBT-SAM: mp-MRIを用いた一般化可能な脳腫瘍切除のためのパラメータ効率の良い深さ認識モデル
- Authors: Cecilia Diana-Albelda, Roberto Alcover-Couso, Álvaro García-Martín, Jesus Bescos, Marcos Escudero-Viñolo,
- Abstract要約: GBT-SAMは、Segment Anything Model(SAM)を脳腫瘍のセグメンテーションタスクに拡張する新しいフレームワークである。
これは、アダルト・グリオーマデータセット上で最先端のパフォーマンスを達成する。
メニンギオーマ、小児グリオーマ、サブサハラグリオーマのデータセットにまたがる堅牢な一般化を示す。
- 参考スコア(独自算出の注目度): 5.7802171590699984
- License:
- Abstract: Gliomas are brain tumours that stand out for their highly lethal and aggressive nature, which demands a precise approach in their diagnosis. Medical image segmentation plays a crucial role in the evaluation and follow-up of these tumours, allowing specialists to analyse their morphology. However, existing methods for automatic glioma segmentation often lack generalization capability across other brain tumour domains, require extensive computational resources, or fail to fully utilize the multi-parametric MRI (mp-MRI) data used to delineate them. In this work, we introduce GBT-SAM, a novel Generalizable Brain Tumour (GBT) framework that extends the Segment Anything Model (SAM) to brain tumour segmentation tasks. Our method employs a two-step training protocol: first, fine-tuning the patch embedding layer to process the entire mp-MRI modalities, and second, incorporating parameter-efficient LoRA blocks and a Depth-Condition block into the Vision Transformer (ViT) to capture inter-slice correlations. GBT-SAM achieves state-of-the-art performance on the Adult Glioma dataset (Dice Score of $93.54$) while demonstrating robust generalization across Meningioma, Pediatric Glioma, and Sub-Saharan Glioma datasets. Furthermore, GBT-SAM uses less than 6.5M trainable parameters, thus offering an efficient solution for brain tumour segmentation. \\ Our code and models are available at https://github.com/vpulab/med-sam-brain .
- Abstract(参考訳): グリオーマは、非常に致命的で攻撃的な性質で目立つ脳腫瘍であり、診断に正確なアプローチを必要とする。
医用画像のセグメンテーションはこれらの腫瘍の評価と追跡において重要な役割を担い、専門家がその形態を分析することができる。
しかし、既存の自動グリオーマセグメンテーション法では、他の脳腫瘍領域にまたがる一般化能力が欠如している場合や、広範囲の計算資源を必要とする場合、あるいはそれらをデライン化するのに使われるマルチパラメトリックMRI(mp-MRI)データを十分に活用できない場合が多い。
本稿では,GBT-SAMについて紹介する。GBT-SAMは,Segment Anything Model(SAM)を脳腫瘍のセグメンテーションタスクに拡張した,新しいGeneralizable Brain Tumour(GBT)フレームワークである。
提案手法では,まず,mp-MRIモード全体を処理するためのパッチ埋め込み層を微調整し,第2に,パラメータ効率のよいLoRAブロックと奥行きブロックをViT(Vision Transformer)に組み込んで,スライス間相関を捉える。
GBT-SAMは、Meningioma、Pediatric Glioma、Sub-Saharan Gliomaデータセットにわたる堅牢な一般化を実証しながら、アダルトグリオーマデータセット(Dice Score of 93.54$)で最先端のパフォーマンスを達成する。
さらに、GBT-SAMは6.5M未満のトレーニング可能なパラメータを使用し、脳腫瘍のセグメンテーションに効率的なソリューションを提供する。
我々のコードとモデルはhttps://github.com/vpulab/med-sam-brain.orgで入手できる。
関連論文リスト
- Magnetic Resonance Imaging Feature-Based Subtyping and Model Ensemble for Enhanced Brain Tumor Segmentation [6.14919256198409]
本稿では,最先端セグメンテーションモデルを統合する深層学習に基づくアンサンブル手法を提案する。
BraTSデータセットに存在する腫瘍の不均一性を考えると、この手法はセグメンテーションモデルの精度と一般化性を高める。
論文 参考訳(メタデータ) (2024-12-05T12:00:00Z) - Intraoperative Glioma Segmentation with YOLO + SAM for Improved Accuracy in Tumor Resection [1.9461727843485295]
グリオーマは、健康な組織との類似性から、重要な外科的課題を呈する。
MRI画像は、脳のシフトなどの要因により、手術中は効果がないことが多い。
本稿では,You Only Look Once Version 8 (Yv8) と Segment Anything Model Vision Transformer-base を組み合わせたディープラーニングパイプラインを提案する。
論文 参考訳(メタデータ) (2024-08-27T07:58:08Z) - Mask-Enhanced Segment Anything Model for Tumor Lesion Semantic Segmentation [48.107348956719775]
Mask-Enhanced SAM (M-SAM) は, 腫瘍の3次元セグメント化に適した革新的なアーキテクチャである。
本稿では,M-SAM内におけるMask-Enhanced Adapter (MEA) を提案する。
我々のM-SAMは高いセグメンテーション精度を達成し、またロバストな一般化を示す。
論文 参考訳(メタデータ) (2024-03-09T13:37:02Z) - Cross-modality Guidance-aided Multi-modal Learning with Dual Attention
for MRI Brain Tumor Grading [47.50733518140625]
脳腫瘍は世界で最も致命的ながんの1つであり、子供や高齢者に非常に多い。
本稿では,MRI脳腫瘍グレーディングの課題に対処するために,新たな多モード学習法を提案する。
論文 参考訳(メタデータ) (2024-01-17T07:54:49Z) - Fully Automated Tumor Segmentation for Brain MRI data using Multiplanner
UNet [0.29998889086656577]
本研究は,3つの挑戦的データセットにまたがる腫瘍サブリージョンの分割におけるマルチプランナーU-Net(MPUnet)アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2024-01-12T10:46:19Z) - Style transfer between Microscopy and Magnetic Resonance Imaging via
Generative Adversarial Network in small sample size settings [49.84018914962972]
磁気共鳴イメージング(MRI)のクロスモーダル増強と、同じ組織サンプルに基づく顕微鏡イメージングが期待できる。
コンディショナル・ジェネレーティブ・逆境ネットワーク (cGAN) アーキテクチャを用いて, コーパス・カロサムのMRI画像から顕微鏡組織像を生成する方法を検討した。
論文 参考訳(メタデータ) (2023-10-16T13:58:53Z) - Segment Anything Model for Brain Tumor Segmentation [3.675657219384998]
グリオーマ(Glioma)は、個体に重大な健康リスクをもたらす脳腫瘍である。
Meta AIがリリースしたSegment Anything Modelは、画像セグメンテーションの基本モデルであり、ゼロサンプルの一般化機能に優れています。
そこで本研究では, SAMの脳腫瘍セグメンテーションにおける性能について検討し, モデル微調整がなければ, SAMと現状SOTAモデルとの間には相違があることを見出した。
論文 参考訳(メタデータ) (2023-09-15T14:33:03Z) - 3DSAM-adapter: Holistic adaptation of SAM from 2D to 3D for promptable tumor segmentation [52.699139151447945]
医用画像の領域分割を行うために, SAMを2次元から3次元に変換する新しい適応法を提案する。
本モデルでは, 腎腫瘍, 膵腫瘍, 大腸癌の3つのタスクのうち8.25%, 29.87%, 10.11%の3つのタスクにおいて, ドメイン・オブ・ザ・アーティヴ・メディカル・イメージ・セグメンテーション・モデルより優れ, 肝腫瘍セグメンテーションでも同様の性能が得られる。
論文 参考訳(メタデータ) (2023-06-23T12:09:52Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z) - Modality Completion via Gaussian Process Prior Variational Autoencoders
for Multi-Modal Glioma Segmentation [75.58395328700821]
本稿では,患者スキャンに欠落するサブモダリティを1つ以上のインプットするために,MGP-VAE(Multi-modal Gaussian Process Prior Variational Autoencoder)を提案する。
MGP-VAEは、変分オートエンコーダ(VAE)に先立ってガウス過程(GP)を利用して、被験者/患者およびサブモダリティ相関を利用することができる。
4つのサブモダリティのうち2つ、または3つが欠落している脳腫瘍に対するMGP-VAEの適用性を示す。
論文 参考訳(メタデータ) (2021-07-07T19:06:34Z) - QuickTumorNet: Fast Automatic Multi-Class Segmentation of Brain Tumors [0.0]
3D MRIボリュームからの脳腫瘍の手動分割は、時間のかかる作業です。
私たちのモデルであるQuickTumorNetは、高速で信頼性があり、正確な脳腫瘍セグメンテーションを示しました。
論文 参考訳(メタデータ) (2020-12-22T23:16:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。