論文の概要: Modality-Aware and Shift Mixer for Multi-modal Brain Tumor Segmentation
- arxiv url: http://arxiv.org/abs/2403.02074v1
- Date: Mon, 4 Mar 2024 14:21:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 18:39:40.398862
- Title: Modality-Aware and Shift Mixer for Multi-modal Brain Tumor Segmentation
- Title(参考訳): マルチモーダル脳腫瘍セグメンテーションのためのモダリティ認識とシフトミキサー
- Authors: Zhongzhen Huang, Linda Wei, Shaoting Zhang, Xiaofan Zhang
- Abstract要約: マルチモーダル画像のモダリティ内依存性とモダリティ間依存性を統合した新しいModality Aware and Shift Mixerを提案する。
具体的には,低レベルのモザイク対関係をモデル化するためのニューロイメージング研究に基づいてModality-Awareモジュールを導入し,モザイクパターンを具体化したModality-Shiftモジュールを開発し,高レベルのモザイク間の複雑な関係を自己注意を通して探索する。
- 参考スコア(独自算出の注目度): 12.094890186803958
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Combining images from multi-modalities is beneficial to explore various
information in computer vision, especially in the medical domain. As an
essential part of clinical diagnosis, multi-modal brain tumor segmentation aims
to delineate the malignant entity involving multiple modalities. Although
existing methods have shown remarkable performance in the task, the information
exchange for cross-scale and high-level representations fusion in spatial and
modality are limited in these methods. In this paper, we present a novel
Modality Aware and Shift Mixer that integrates intra-modality and
inter-modality dependencies of multi-modal images for effective and robust
brain tumor segmentation. Specifically, we introduce a Modality-Aware module
according to neuroimaging studies for modeling the specific modality pair
relationships at low levels, and a Modality-Shift module with specific mosaic
patterns is developed to explore the complex relationships across modalities at
high levels via the self-attention. Experimentally, we outperform previous
state-of-the-art approaches on the public Brain Tumor Segmentation (BraTS 2021
segmentation) dataset. Further qualitative experiments demonstrate the efficacy
and robustness of MASM.
- Abstract(参考訳): マルチモダリティの画像の組み合わせは、コンピュータビジョン、特に医学領域における様々な情報探索に有用である。
臨床診断の必須部分であるマルチモーダル脳腫瘍分節は、複数のモダリティを含む悪性な実体を強調することを目的としている。
既存の手法では有意な性能を示したが,空間的・モダリティにおけるクロススケール表現とハイレベル表現の融合に関する情報交換は限られている。
本稿では,マルチモーダル画像のモダリティ内およびモダリティ間依存性を統合し,有効かつロバストな脳腫瘍分割を行う新しいモダリティ認識・シフトミキサーを提案する。
具体的には,低レベルのモザイク対関係をモデル化するためのニューロイメージング研究に基づいてModality-Awareモジュールを導入し,モザイクパターンを具体化したModality-Shiftモジュールを開発し,高レベルのモザイク間の複雑な関係を自己注意を通して探索する。
実験的に、公衆脳腫瘍セグメンテーション(BraTS 2021セグメンテーション)データセットにおける最先端のアプローチよりも優れている。
さらなる定性的実験はMASMの有効性と堅牢性を示す。
関連論文リスト
- Cross-modality Guidance-aided Multi-modal Learning with Dual Attention
for MRI Brain Tumor Grading [47.50733518140625]
脳腫瘍は世界で最も致命的ながんの1つであり、子供や高齢者に非常に多い。
本稿では,MRI脳腫瘍グレーディングの課題に対処するために,新たな多モード学習法を提案する。
論文 参考訳(メタデータ) (2024-01-17T07:54:49Z) - Joint Self-Supervised and Supervised Contrastive Learning for Multimodal
MRI Data: Towards Predicting Abnormal Neurodevelopment [5.771221868064265]
マルチモーダルMRIデータから頑健な潜在特徴表現を学習するための,新しい自己教師付きコントラスト学習法を提案する。
本手法は,マルチモーダルデータの活用により,臨床実習におけるコンピュータ支援診断を容易にする能力を有する。
論文 参考訳(メタデータ) (2023-12-22T21:05:51Z) - Modality-Agnostic Learning for Medical Image Segmentation Using
Multi-modality Self-distillation [1.815047691981538]
マルチモーダル・セルフディスト・イレレーション(MAG-MS)によるモダリティ非依存学習という新しい枠組みを提案する。
MAG-MSは複数のモダリティの融合から知識を蒸留し、個々のモダリティに対する表現学習を強化する。
ベンチマークデータセットを用いた実験により,MAG-MSの高効率化とセグメンテーション性能の向上が示された。
論文 参考訳(メタデータ) (2023-06-06T14:48:50Z) - Exploiting Partial Common Information Microstructure for Multi-Modal
Brain Tumor Segmentation [11.583406152227637]
マルチモーダル性による学習は、磁気共鳴画像データから自動脳腫瘍セグメント化に不可欠である。
既存のアプローチは、モダリティのサブセットによって共有される部分的な共通情報に不可避である。
本稿では,このような部分的な共通情報を同定することで,画像分割モデルの識別能力を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-02-06T01:28:52Z) - Multimodal foundation models are better simulators of the human brain [65.10501322822881]
1500万の画像テキストペアを事前訓練した,新たに設計されたマルチモーダル基礎モデルを提案する。
視覚的エンコーダも言語的エンコーダもマルチモーダルで訓練され,脳に近いことが判明した。
論文 参考訳(メタデータ) (2022-08-17T12:36:26Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z) - Towards Cross-modality Medical Image Segmentation with Online Mutual
Knowledge Distillation [71.89867233426597]
本稿では,あるモダリティから学習した事前知識を活用し,別のモダリティにおけるセグメンテーション性能を向上させることを目的とする。
モーダル共有知識を徹底的に活用する新しい相互知識蒸留法を提案する。
MMWHS 2017, MMWHS 2017 を用いた多クラス心筋セグメンテーション実験の結果, CT セグメンテーションに大きな改善が得られた。
論文 参考訳(メタデータ) (2020-10-04T10:25:13Z) - Robust Multimodal Brain Tumor Segmentation via Feature Disentanglement
and Gated Fusion [71.87627318863612]
画像モダリティの欠如に頑健な新しいマルチモーダルセグメンテーションフレームワークを提案する。
我々のネットワークは、入力モードをモダリティ固有の外観コードに分解するために、特徴不整合を用いる。
我々は,BRATSチャレンジデータセットを用いて,重要なマルチモーダル脳腫瘍セグメンテーション課題に対する本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-02-22T14:32:04Z) - Hi-Net: Hybrid-fusion Network for Multi-modal MR Image Synthesis [143.55901940771568]
マルチモーダルMR画像合成のためのHybrid-fusion Network(Hi-Net)を提案する。
当社のHi-Netでは,各モーダリティの表現を学習するために,モーダリティ特化ネットワークを用いている。
マルチモーダル合成ネットワークは、潜在表現と各モーダルの階層的特徴を密結合するように設計されている。
論文 参考訳(メタデータ) (2020-02-11T08:26:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。