論文の概要: MSM-Seg: A Modality-and-Slice Memory Framework with Category-Agnostic Prompting for Multi-Modal Brain Tumor Segmentation
- arxiv url: http://arxiv.org/abs/2510.10679v1
- Date: Sun, 12 Oct 2025 16:08:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.062229
- Title: MSM-Seg: A Modality-and-Slice Memory Framework with Category-Agnostic Prompting for Multi-Modal Brain Tumor Segmentation
- Title(参考訳): MSM-Seg:マルチモーダル脳腫瘍切除のためのカテゴリー非依存プロンプトを用いたモダリティ・アンド・スライス記憶フレームワーク
- Authors: Yuxiang Luo, Qing Xu, Hai Huang, Yuqi Ouyang, Zhen Chen, Wenting Duan,
- Abstract要約: 多発性脳腫瘍の分節は臨床診断に重要である。
マルチモーダル脳腫瘍セグメンテーションのためのMSM-Segフレームワークを提案する。
本フレームワークは,多発モーダル転移とグリオーマ腫瘍の鑑別において,最先端の手法より優れている。
- 参考スコア(独自算出の注目度): 7.189055048337262
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-modal brain tumor segmentation is critical for clinical diagnosis, and it requires accurate identification of distinct internal anatomical subregions. While the recent prompt-based segmentation paradigms enable interactive experiences for clinicians, existing methods ignore cross-modal correlations and rely on labor-intensive category-specific prompts, limiting their applicability in real-world scenarios. To address these issues, we propose a MSM-Seg framework for multi-modal brain tumor segmentation. The MSM-Seg introduces a novel dual-memory segmentation paradigm that synergistically integrates multi-modal and inter-slice information with the efficient category-agnostic prompt for brain tumor understanding. To this end, we first devise a modality-and-slice memory attention (MSMA) to exploit the cross-modal and inter-slice relationships among the input scans. Then, we propose a multi-scale category-agnostic prompt encoder (MCP-Encoder) to provide tumor region guidance for decoding. Moreover, we devise a modality-adaptive fusion decoder (MF-Decoder) that leverages the complementary decoding information across different modalities to improve segmentation accuracy. Extensive experiments on different MRI datasets demonstrate that our MSM-Seg framework outperforms state-of-the-art methods in multi-modal metastases and glioma tumor segmentation. The code is available at https://github.com/xq141839/MSM-Seg.
- Abstract(参考訳): 臨床診断にはマルチモーダル脳腫瘍セグメンテーションが重要であり,内因性解剖学的亜領域の正確な同定が必要である。
最近のプロンプトベースのセグメンテーションパラダイムは、臨床医のインタラクティブな体験を可能にするが、既存の手法は、クロスモーダルな相関を無視し、労働集約的なカテゴリー固有のプロンプトに依存し、現実のシナリオにおける適用性を制限している。
これらの課題に対処するために,マルチモーダル脳腫瘍セグメント化のためのMSM-Segフレームワークを提案する。
MSM-Segは、マルチモーダル情報とインタースライス情報を相乗的に統合し、脳腫瘍の理解のために効果的なカテゴリーに依存しないプロンプトを提供する新しいデュアルメモリセグメンテーションパラダイムを導入している。
そこで我々はまず,モーダル・アンド・スライス・メモリ・アテンション(MSMA)を考案し,入力スキャン間の相互・スライス関係を利用した。
そこで我々は,マルチスケールのカテゴリ非依存プロンプトエンコーダ (MCP-Encoder) を提案し,デコードのための腫瘍領域ガイダンスを提供する。
さらに,各モード間の相補的復号情報を活用し,セグメンテーション精度を向上させるモダリティ適応核融合復号器 (MF-Decoder) を考案した。
MSM-Seg フレームワークはマルチモーダル転移およびグリオーマ腫瘍セグメンテーションにおいて最先端の手法より優れていることを示す。
コードはhttps://github.com/xq141839/MSM-Segで入手できる。
関連論文リスト
- Unified Multimodal Coherent Field: Synchronous Semantic-Spatial-Vision Fusion for Brain Tumor Segmentation [13.108816349958659]
脳腫瘍セグメント化のための統一多モードコヒーレントフィールド(UMCF)法を提案する。
統合された3次元空間内の視覚情報,意味情報,空間情報の同期的融合を実現する。
Brain tumor (BraTS) データセットでは、UMCF+Unn-Net がそれぞれ 0.8579 と 0.8977 の Dice を達成する。
論文 参考訳(メタデータ) (2025-09-22T08:45:39Z) - A Multi-Modal Fusion Framework for Brain Tumor Segmentation Based on 3D Spatial-Language-Vision Integration and Bidirectional Interactive Attention Mechanism [6.589206192038366]
このフレームワークは、369個の多施設MRIスキャンからなるBraTS 2020データセットで評価された。
提案法は, 腫瘍, 腫瘍コア, 全腫瘍領域にわたって平均Dice係数0.8505, 95%Hausdorff距離2.8256mmを実現した。
論文 参考訳(メタデータ) (2025-07-11T13:21:56Z) - MAST-Pro: Dynamic Mixture-of-Experts for Adaptive Segmentation of Pan-Tumors with Knowledge-Driven Prompts [54.915060471994686]
MAST-Proは,ダイナミックなMixture-of-Experts(D-MoE)とパン腫瘍セグメンテーションのための知識駆動プロンプトを統合した新しいフレームワークである。
具体的には、テキストと解剖学的プロンプトは、腫瘍表現学習を導くドメイン固有の事前情報を提供し、D-MoEは、ジェネリックと腫瘍固有の特徴学習のバランスをとる専門家を動的に選択する。
マルチ解剖学的腫瘍データセットの実験では、MAST-Proは最先端のアプローチよりも優れており、トレーニング可能なパラメータを91.04%削減し、平均改善の5.20%を達成している。
論文 参考訳(メタデータ) (2025-03-18T15:39:44Z) - Enhanced MRI Representation via Cross-series Masking [48.09478307927716]
自己教師型でMRI表現を効果的に学習するためのクロスシリーズ・マスキング(CSM)戦略
メソッドは、パブリックデータセットと社内データセットの両方で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-12-10T10:32:09Z) - MulModSeg: Enhancing Unpaired Multi-Modal Medical Image Segmentation with Modality-Conditioned Text Embedding and Alternating Training [10.558275557142137]
マルチモーダル(MulModSeg)戦略を提案する。
MulModSegは、凍結されたテキストエンコーダを介して、モダリティ条件付きテキスト埋め込みフレームワークを組み込んでいる。
腹部多臓器および心室サブ構造をCTとMRの両方で分画する従来の方法より一貫して優れていた。
論文 参考訳(メタデータ) (2024-11-23T14:37:01Z) - multiPI-TransBTS: A Multi-Path Learning Framework for Brain Tumor Image Segmentation Based on Multi-Physical Information [1.7359724605901228]
脳腫瘍距離(BraTS)は、臨床診断、治療計画、脳腫瘍の進行のモニタリングにおいて重要な役割を果たす。
腫瘍の出現、サイズ、強度の変動により、自動セグメンテーションは難しい課題である。
セグメント化精度を高めるために多物理情報を統合するトランスフォーマーベースの新しいフレームワークである MultiPI-TransBTS を提案する。
論文 参考訳(メタデータ) (2024-09-18T17:35:19Z) - Mask-Enhanced Segment Anything Model for Tumor Lesion Semantic Segmentation [48.107348956719775]
Mask-Enhanced SAM (M-SAM) は, 腫瘍の3次元セグメント化に適した革新的なアーキテクチャである。
本稿では,M-SAM内におけるMask-Enhanced Adapter (MEA) を提案する。
我々のM-SAMは高いセグメンテーション精度を達成し、またロバストな一般化を示す。
論文 参考訳(メタデータ) (2024-03-09T13:37:02Z) - Modality-Aware and Shift Mixer for Multi-modal Brain Tumor Segmentation [12.094890186803958]
マルチモーダル画像のモダリティ内依存性とモダリティ間依存性を統合した新しいModality Aware and Shift Mixerを提案する。
具体的には,低レベルのモザイク対関係をモデル化するためのニューロイメージング研究に基づいてModality-Awareモジュールを導入し,モザイクパターンを具体化したModality-Shiftモジュールを開発し,高レベルのモザイク間の複雑な関係を自己注意を通して探索する。
論文 参考訳(メタデータ) (2024-03-04T14:21:51Z) - Cross-modality Guidance-aided Multi-modal Learning with Dual Attention
for MRI Brain Tumor Grading [47.50733518140625]
脳腫瘍は世界で最も致命的ながんの1つであり、子供や高齢者に非常に多い。
本稿では,MRI脳腫瘍グレーディングの課題に対処するために,新たな多モード学習法を提案する。
論文 参考訳(メタデータ) (2024-01-17T07:54:49Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z) - Robust Multimodal Brain Tumor Segmentation via Feature Disentanglement
and Gated Fusion [71.87627318863612]
画像モダリティの欠如に頑健な新しいマルチモーダルセグメンテーションフレームワークを提案する。
我々のネットワークは、入力モードをモダリティ固有の外観コードに分解するために、特徴不整合を用いる。
我々は,BRATSチャレンジデータセットを用いて,重要なマルチモーダル脳腫瘍セグメンテーション課題に対する本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-02-22T14:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。