論文の概要: Toward Unpaired Multi-modal Medical Image Segmentation via Learning
Structured Semantic Consistency
- arxiv url: http://arxiv.org/abs/2206.10571v3
- Date: Sun, 30 Apr 2023 07:18:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-02 19:56:39.528874
- Title: Toward Unpaired Multi-modal Medical Image Segmentation via Learning
Structured Semantic Consistency
- Title(参考訳): 構造化意味的一貫性を学習するマルチモーダル医用画像セグメンテーション
- Authors: Jie Yang, Ye Zhu, Chaoqun Wang, Zhen Li, Ruimao Zhang
- Abstract要約: 本稿では,異なるモダリティの相互利益を学習し,不自由な医療画像に対してより良いセグメンテーション結果を得るための新しい手法を提案する。
我々は、慎重に設計された外部注意モジュール(EAM)を利用して、セマンティッククラス表現とそれらの異なるモダリティの相関を調整します。
提案手法の有効性を2つの医療画像セグメンテーションシナリオで実証した。
- 参考スコア(独自算出の注目度): 24.78258331561847
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Integrating multi-modal data to promote medical image analysis has recently
gained great attention. This paper presents a novel scheme to learn the mutual
benefits of different modalities to achieve better segmentation results for
unpaired multi-modal medical images. Our approach tackles two critical issues
of this task from a practical perspective: (1) how to effectively learn the
semantic consistencies of various modalities (e.g., CT and MRI), and (2) how to
leverage the above consistencies to regularize the network learning while
preserving its simplicity. To address (1), we leverage a carefully designed
External Attention Module (EAM) to align semantic class representations and
their correlations of different modalities. To solve (2), the proposed EAM is
designed as an external plug-and-play one, which can be discarded once the
model is optimized. We have demonstrated the effectiveness of the proposed
method on two medical image segmentation scenarios: (1) cardiac structure
segmentation, and (2) abdominal multi-organ segmentation. Extensive results
show that the proposed method outperforms its counterparts by a wide margin.
- Abstract(参考訳): 医療画像解析を促進するマルチモーダルデータの統合が注目されている。
本稿では,マルチモーダル医用画像のセグメンテーション結果を改善するために,異なるモダリティの相互利益を学習するための新しい手法を提案する。
本手法は,(1)様々なモダリティ(ct,mriなど)の意味的構成を効果的に学習する方法,(2)ネットワーク学習をシンプルに保ちながら規則化する手法という,実用的な視点から,この課題の2つの重要な課題に取り組む。
1)に対処するために、慎重に設計された外部注意モジュール(EAM)を活用し、セマンティッククラス表現と異なるモダリティの相関を調整します。
2) 問題を解決するため,提案するEAMは外部プラグアンドプレイシステムとして設計されており,モデルが最適化されると破棄することができる。
提案手法は,(1)心構造セグメント化,(2)腹部多臓器セグメント化の2つの医療画像セグメント化シナリオにおいて有効であることを示した。
その結果,提案手法はより広いマージンで優れた性能を示した。
関連論文リスト
- PMT: Progressive Mean Teacher via Exploring Temporal Consistency for Semi-Supervised Medical Image Segmentation [51.509573838103854]
医用画像セグメンテーションのための半教師付き学習フレームワークであるプログレッシブ平均教師(PMT)を提案する。
我々のPMTは、トレーニングプロセスにおいて、堅牢で多様な特徴を学習することで、高忠実な擬似ラベルを生成する。
CT と MRI の異なる2つのデータセットに対する実験結果から,本手法が最先端の医用画像分割法より優れていることが示された。
論文 参考訳(メタデータ) (2024-09-08T15:02:25Z) - Robust Semi-supervised Multimodal Medical Image Segmentation via Cross Modality Collaboration [21.97457095780378]
本稿では,ラベル付きデータの不足やモダリティの不一致に頑健な,新しい半教師付きマルチモーダルセグメンテーションフレームワークを提案する。
本フレームワークでは,各モダリティに固有の,モダリティに依存しない知識を蒸留する,新たなモダリティ協調戦略を採用している。
また、対照的な一貫した学習を統合して解剖学的構造を規制し、ラベルのないデータに対する解剖学的予測アライメントを容易にする。
論文 参考訳(メタデータ) (2024-08-14T07:34:12Z) - Cross-model Mutual Learning for Exemplar-based Medical Image Segmentation [25.874281336821685]
Exemplar-based Medical Image(CMEMS)のためのクロスモデル相互学習フレームワーク
外来医用画像のためのクロスモデル相互学習フレームワーク(CMEMS)について紹介する。
論文 参考訳(メタデータ) (2024-04-18T00:18:07Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - Self-Sampling Meta SAM: Enhancing Few-shot Medical Image Segmentation
with Meta-Learning [17.386754270460273]
数ショットの医用画像分割のための自己サンプリングメタSAMフレームワークを提案する。
提案手法は,数発のセグメンテーションにおいて最先端の手法よりも大幅に向上する。
そこで本研究では,対話型画像分割における高速なオンライン適応手法を提案する。
論文 参考訳(メタデータ) (2023-08-31T05:20:48Z) - A Multi-View Dynamic Fusion Framework: How to Improve the Multimodal
Brain Tumor Segmentation from Multi-Views? [5.793853101758628]
本稿では,脳腫瘍セグメンテーションの性能向上を目的としたマルチビューダイナミックフュージョンフレームワークを提案する。
BRATS 2015とBRATS 2018で提案されたフレームワークを評価することで、マルチビューからの融合結果が単一ビューからのセグメンテーション結果よりも優れたパフォーマンスを達成できることが分かります。
論文 参考訳(メタデータ) (2020-12-21T09:45:23Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Towards Cross-modality Medical Image Segmentation with Online Mutual
Knowledge Distillation [71.89867233426597]
本稿では,あるモダリティから学習した事前知識を活用し,別のモダリティにおけるセグメンテーション性能を向上させることを目的とする。
モーダル共有知識を徹底的に活用する新しい相互知識蒸留法を提案する。
MMWHS 2017, MMWHS 2017 を用いた多クラス心筋セグメンテーション実験の結果, CT セグメンテーションに大きな改善が得られた。
論文 参考訳(メタデータ) (2020-10-04T10:25:13Z) - Unsupervised Bidirectional Cross-Modality Adaptation via Deeply
Synergistic Image and Feature Alignment for Medical Image Segmentation [73.84166499988443]
我々は、Synergistic Image and Feature Alignment (SIFA)と名付けられた新しい教師なしドメイン適応フレームワークを提案する。
提案するSIFAは、画像と特徴の両方の観点から、ドメインの相乗的アライメントを行う。
2つの異なるタスクに対する実験結果から,SIFA法は未ラベル対象画像のセグメンテーション性能を向上させるのに有効であることが示された。
論文 参考訳(メタデータ) (2020-02-06T13:49:47Z) - Unpaired Multi-modal Segmentation via Knowledge Distillation [77.39798870702174]
本稿では,不対向画像分割のための新しい学習手法を提案する。
提案手法では,CTおよびMRI間での畳み込みカーネルの共有により,ネットワークパラメータを多用する。
我々は2つの多クラスセグメンテーション問題に対するアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2020-01-06T20:03:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。