論文の概要: Modality-aware Mutual Learning for Multi-modal Medical Image
Segmentation
- arxiv url: http://arxiv.org/abs/2107.09842v1
- Date: Wed, 21 Jul 2021 02:24:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-22 14:09:17.892885
- Title: Modality-aware Mutual Learning for Multi-modal Medical Image
Segmentation
- Title(参考訳): マルチモーダル医用画像分割のためのモダリティ・アウェア相互学習
- Authors: Yao Zhang, Jiawei Yang, Jiang Tian, Zhongchao Shi, Cheng Zhong, Yang
Zhang, and Zhiqiang He
- Abstract要約: 肝臓がんは世界中で最も多いがんの1つである。
本稿では,マルチモーダルCT画像の統合による肝腫瘍切除の自動化に焦点をあてる。
そこで本研究では,肝腫瘍セグメント化を効果的かつ堅牢にするための新たな相互学習(ML)戦略を提案する。
- 参考スコア(独自算出の注目度): 12.308579499188921
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Liver cancer is one of the most common cancers worldwide. Due to
inconspicuous texture changes of liver tumor, contrast-enhanced computed
tomography (CT) imaging is effective for the diagnosis of liver cancer. In this
paper, we focus on improving automated liver tumor segmentation by integrating
multi-modal CT images. To this end, we propose a novel mutual learning (ML)
strategy for effective and robust multi-modal liver tumor segmentation.
Different from existing multi-modal methods that fuse information from
different modalities by a single model, with ML, an ensemble of
modality-specific models learn collaboratively and teach each other to distill
both the characteristics and the commonality between high-level representations
of different modalities. The proposed ML not only enables the superiority for
multi-modal learning but can also handle missing modalities by transferring
knowledge from existing modalities to missing ones. Additionally, we present a
modality-aware (MA) module, where the modality-specific models are
interconnected and calibrated with attention weights for adaptive information
exchange. The proposed modality-aware mutual learning (MAML) method achieves
promising results for liver tumor segmentation on a large-scale clinical
dataset. Moreover, we show the efficacy and robustness of MAML for handling
missing modalities on both the liver tumor and public brain tumor (BRATS 2018)
datasets. Our code is available at https://github.com/YaoZhang93/MAML.
- Abstract(参考訳): 肝臓がんは世界中で最も多いがんの1つである。
肝腫瘍の異常なテクスチャー変化のため,造影CTが肝癌の診断に有用である。
本稿では,マルチモーダルCT画像の統合による肝腫瘍切除の自動化に焦点をあてる。
そこで本研究では,マルチモーダル肝腫瘍セグメンテーションのための新たな相互学習(ML)戦略を提案する。
異なるモダリティから情報を単一のモデルで融合する既存のマルチモーダル法とは異なり、MLでは、モダリティ固有のモデルのアンサンブルが協調的に学習し、異なるモダリティの高レベル表現間の特性と共通性の両方を融合させるように互いに教える。
提案したMLは,マルチモーダル学習の優位性を実現するだけでなく,既存のモーダルから欠落したモーダルへ知識を伝達することで,欠落したモーダルを扱える。
さらに,モダリティ固有モデルとアダプティブ情報交換のための注意重み付けを相互に結合して調整するモダリティ認識(ma)モジュールを提案する。
提案手法は, 大規模臨床データセットを用いた肝腫瘍セグメンテーションにおいて有望な結果が得られた。
さらに,肝腫瘍および公共脳腫瘍(BRATS 2018)データセットの欠如に対するMAMLの有効性とロバスト性を示した。
私たちのコードはhttps://github.com/YaoZhang93/MAMLで利用可能です。
関連論文リスト
- multiPI-TransBTS: A Multi-Path Learning Framework for Brain Tumor Image Segmentation Based on Multi-Physical Information [1.7359724605901228]
脳腫瘍距離(BraTS)は、臨床診断、治療計画、脳腫瘍の進行のモニタリングにおいて重要な役割を果たす。
腫瘍の出現、サイズ、強度の変動により、自動セグメンテーションは難しい課題である。
セグメント化精度を高めるために多物理情報を統合するトランスフォーマーベースの新しいフレームワークである MultiPI-TransBTS を提案する。
論文 参考訳(メタデータ) (2024-09-18T17:35:19Z) - Mask-Enhanced Segment Anything Model for Tumor Lesion Semantic Segmentation [48.107348956719775]
Mask-Enhanced SAM (M-SAM) は, 腫瘍の3次元セグメント化に適した革新的なアーキテクチャである。
本稿では,M-SAM内におけるMask-Enhanced Adapter (MEA) を提案する。
我々のM-SAMは高いセグメンテーション精度を達成し、またロバストな一般化を示す。
論文 参考訳(メタデータ) (2024-03-09T13:37:02Z) - Modality-Aware and Shift Mixer for Multi-modal Brain Tumor Segmentation [12.094890186803958]
マルチモーダル画像のモダリティ内依存性とモダリティ間依存性を統合した新しいModality Aware and Shift Mixerを提案する。
具体的には,低レベルのモザイク対関係をモデル化するためのニューロイメージング研究に基づいてModality-Awareモジュールを導入し,モザイクパターンを具体化したModality-Shiftモジュールを開発し,高レベルのモザイク間の複雑な関係を自己注意を通して探索する。
論文 参考訳(メタデータ) (2024-03-04T14:21:51Z) - Cross-modality Guidance-aided Multi-modal Learning with Dual Attention
for MRI Brain Tumor Grading [47.50733518140625]
脳腫瘍は世界で最も致命的ながんの1つであり、子供や高齢者に非常に多い。
本稿では,MRI脳腫瘍グレーディングの課題に対処するために,新たな多モード学習法を提案する。
論文 参考訳(メタデータ) (2024-01-17T07:54:49Z) - United adversarial learning for liver tumor segmentation and detection
of multi-modality non-contrast MRI [5.857654010519764]
多モードNCMRIを用いた肝腫瘍の同時切除・検出のための統合対位学習フレームワーク(UAL)を提案する。
UALはまず、マルチビュー認識エンコーダを使用して、肝腫瘍のセグメンテーションと検出のための多モードNCMRI情報を抽出する。
パディングによる座標共有機構は,分割と検出のマルチタスクを統合し,複数のタスクを一つの識別器で組み合わせた対角学習を実現する。
論文 参考訳(メタデータ) (2022-01-07T18:54:07Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z) - A Multi-Stage Attentive Transfer Learning Framework for Improving
COVID-19 Diagnosis [49.3704402041314]
新型コロナの診断を改善するための多段階集中移動学習フレームワークを提案する。
提案するフレームワークは、複数のソースタスクと異なるドメインのデータから知識を学習し、正確な診断モデルを訓練する3つの段階からなる。
本稿では,肺CT画像のマルチスケール表現を学習するための自己教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-14T01:39:19Z) - Towards Cross-modality Medical Image Segmentation with Online Mutual
Knowledge Distillation [71.89867233426597]
本稿では,あるモダリティから学習した事前知識を活用し,別のモダリティにおけるセグメンテーション性能を向上させることを目的とする。
モーダル共有知識を徹底的に活用する新しい相互知識蒸留法を提案する。
MMWHS 2017, MMWHS 2017 を用いた多クラス心筋セグメンテーション実験の結果, CT セグメンテーションに大きな改善が得られた。
論文 参考訳(メタデータ) (2020-10-04T10:25:13Z) - Soft Tissue Sarcoma Co-Segmentation in Combined MRI and PET/CT Data [2.2515303891664358]
マルチモーダル医用画像における腫瘍のセグメンテーションは, 深層学習の手法に傾きつつある。
本稿では,モダリティ固有のエンコーダとデコーダのブランチによるマルチモーダル特徴学習を実現する,同時分離手法を提案する。
MRI(T1およびT2配列)とPET/CTスキャンを併用した公衆軟部肉腫データに対するアプローチの有効性を示した。
論文 参考訳(メタデータ) (2020-08-28T09:15:42Z) - Robust Multimodal Brain Tumor Segmentation via Feature Disentanglement
and Gated Fusion [71.87627318863612]
画像モダリティの欠如に頑健な新しいマルチモーダルセグメンテーションフレームワークを提案する。
我々のネットワークは、入力モードをモダリティ固有の外観コードに分解するために、特徴不整合を用いる。
我々は,BRATSチャレンジデータセットを用いて,重要なマルチモーダル脳腫瘍セグメンテーション課題に対する本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-02-22T14:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。