論文の概要: Towards Cross-modality Medical Image Segmentation with Online Mutual
Knowledge Distillation
- arxiv url: http://arxiv.org/abs/2010.01532v1
- Date: Sun, 4 Oct 2020 10:25:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 04:09:15.855457
- Title: Towards Cross-modality Medical Image Segmentation with Online Mutual
Knowledge Distillation
- Title(参考訳): オンライン相互知識蒸留による相互モダリティ型医用画像セグメンテーション
- Authors: Kang Li, Lequan Yu, Shujun Wang and Pheng-Ann Heng
- Abstract要約: 本稿では,あるモダリティから学習した事前知識を活用し,別のモダリティにおけるセグメンテーション性能を向上させることを目的とする。
モーダル共有知識を徹底的に活用する新しい相互知識蒸留法を提案する。
MMWHS 2017, MMWHS 2017 を用いた多クラス心筋セグメンテーション実験の結果, CT セグメンテーションに大きな改善が得られた。
- 参考スコア(独自算出の注目度): 71.89867233426597
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The success of deep convolutional neural networks is partially attributed to
the massive amount of annotated training data. However, in practice, medical
data annotations are usually expensive and time-consuming to be obtained.
Considering multi-modality data with the same anatomic structures are widely
available in clinic routine, in this paper, we aim to exploit the prior
knowledge (e.g., shape priors) learned from one modality (aka., assistant
modality) to improve the segmentation performance on another modality (aka.,
target modality) to make up annotation scarcity. To alleviate the learning
difficulties caused by modality-specific appearance discrepancy, we first
present an Image Alignment Module (IAM) to narrow the appearance gap between
assistant and target modality data.We then propose a novel Mutual Knowledge
Distillation (MKD) scheme to thoroughly exploit the modality-shared knowledge
to facilitate the target-modality segmentation. To be specific, we formulate
our framework as an integration of two individual segmentors. Each segmentor
not only explicitly extracts one modality knowledge from corresponding
annotations, but also implicitly explores another modality knowledge from its
counterpart in mutual-guided manner. The ensemble of two segmentors would
further integrate the knowledge from both modalities and generate reliable
segmentation results on target modality. Experimental results on the public
multi-class cardiac segmentation data, i.e., MMWHS 2017, show that our method
achieves large improvements on CT segmentation by utilizing additional MRI data
and outperforms other state-of-the-art multi-modality learning methods.
- Abstract(参考訳): 深層畳み込みニューラルネットワークの成功は、部分的には大量の注釈付きトレーニングデータによるものである。
しかし、実際には医療データアノテーションは通常高価であり、入手には時間がかかる。
本稿では,同じ解剖構造を持つマルチモダリティデータを臨床現場で広く活用し,あるモダリティ(あるいはアシスタントモダリティ)から学習した事前知識(例えば形状優先)を活用して,別のモダリティ(ターゲットモダリティ)におけるセグメンテーション性能を改善し,アノテーション不足を補うことを目的とする。
モダリティ特異的な外観差による学習の難しさを軽減するため,まず,画像アライメントモジュール(IAM, Image Alignment Module, IAM, IAM)を提案し,モダリティ共有知識を徹底的に活用し,目標モダリティ分割を容易にするためのMKD(Mutual Knowledge Distillation)手法を提案する。
具体的には、我々のフレームワークを2つの個別セグメンタの統合として定式化する。
各セグメンタは、対応するアノテーションから1つのモダリティ知識を明示的に抽出するだけでなく、暗黙的に他のモダリティ知識を相互誘導的に抽出する。
2つのセグメンタのアンサンブルは、両方のモダリティからの知識をさらに統合し、ターゲットモダリティに関する信頼できるセグメンテーション結果を生成する。
MMWHS 2017, MMWHS 2017において, 追加のMRIデータを活用することでCTセグメンテーションを大幅に改善し, 他の最先端のマルチモーダリティ学習法より優れることを示す。
関連論文リスト
- DRIM: Learning Disentangled Representations from Incomplete Multimodal Healthcare Data [0.0]
実生活の医療データは、しばしばマルチモーダルで不完全であり、高度なディープラーニングモデルの必要性を助長する。
データ疎性にもかかわらず、共有表現とユニークな表現をキャプチャする新しい方法であるDRIMを紹介する。
本手法はグリオーマ患者の生存予測タスクにおける最先端のアルゴリズムよりも優れており,モダリティの欠如に対して頑健である。
論文 参考訳(メタデータ) (2024-09-25T16:13:57Z) - Robust Semi-supervised Multimodal Medical Image Segmentation via Cross Modality Collaboration [21.97457095780378]
本稿では,ラベル付きデータの不足やモダリティの不一致に頑健な,新しい半教師付きマルチモーダルセグメンテーションフレームワークを提案する。
本フレームワークでは,各モダリティに固有の,モダリティに依存しない知識を蒸留する,新たなモダリティ協調戦略を採用している。
また、対照的な一貫した学習を統合して解剖学的構造を規制し、ラベルのないデータに対する解剖学的予測アライメントを容易にする。
論文 参考訳(メタデータ) (2024-08-14T07:34:12Z) - Learnable Weight Initialization for Volumetric Medical Image Segmentation [66.3030435676252]
本稿では,学習可能な重みに基づくハイブリッド医療画像セグメンテーション手法を提案する。
我々のアプローチはどんなハイブリッドモデルにも簡単に統合でき、外部のトレーニングデータを必要としない。
多臓器・肺がんセグメンテーションタスクの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-06-15T17:55:05Z) - Toward Unpaired Multi-modal Medical Image Segmentation via Learning
Structured Semantic Consistency [24.78258331561847]
本稿では,異なるモダリティの相互利益を学習し,不自由な医療画像に対してより良いセグメンテーション結果を得るための新しい手法を提案する。
我々は、慎重に設計された外部注意モジュール(EAM)を利用して、セマンティッククラス表現とそれらの異なるモダリティの相関を調整します。
提案手法の有効性を2つの医療画像セグメンテーションシナリオで実証した。
論文 参考訳(メタデータ) (2022-06-21T17:50:29Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z) - Dual-Task Mutual Learning for Semi-Supervised Medical Image Segmentation [12.940103904327655]
半監督医療画像分割のための新しいデュアルタスク相互学習フレームワークを提案する。
我々のフレームワークは、2つのタスクに基づく2つの個別セグメンテーションネットワークの統合として定式化できる。
対象のセグメンテーション確率マップと符号付き距離マップを共同で学習することで,幾何学的形状制約を強制し,より信頼性の高い情報を得ることができる。
論文 参考訳(メタデータ) (2021-03-08T12:38:23Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Robust Multimodal Brain Tumor Segmentation via Feature Disentanglement
and Gated Fusion [71.87627318863612]
画像モダリティの欠如に頑健な新しいマルチモーダルセグメンテーションフレームワークを提案する。
我々のネットワークは、入力モードをモダリティ固有の外観コードに分解するために、特徴不整合を用いる。
我々は,BRATSチャレンジデータセットを用いて,重要なマルチモーダル脳腫瘍セグメンテーション課題に対する本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-02-22T14:32:04Z) - Unpaired Multi-modal Segmentation via Knowledge Distillation [77.39798870702174]
本稿では,不対向画像分割のための新しい学習手法を提案する。
提案手法では,CTおよびMRI間での畳み込みカーネルの共有により,ネットワークパラメータを多用する。
我々は2つの多クラスセグメンテーション問題に対するアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2020-01-06T20:03:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。