論文の概要: Learning Multi-Modal Brain Tumor Segmentation from Privileged
Semi-Paired MRI Images with Curriculum Disentanglement Learning
- arxiv url: http://arxiv.org/abs/2208.12781v1
- Date: Fri, 26 Aug 2022 16:52:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-29 13:13:34.644330
- Title: Learning Multi-Modal Brain Tumor Segmentation from Privileged
Semi-Paired MRI Images with Curriculum Disentanglement Learning
- Title(参考訳): 原位置MRI画像からの多モード脳腫瘍切片の学習 : カリキュラム・ディアングルメント・ラーニングによる検討
- Authors: Zecheng Liu and Jia Wei and Rui Li
- Abstract要約: 本稿では,脳腫瘍セグメンテーションのための2段階(イントラモダリティとイントラモダリティ)のカリキュラム・アンタングルメント・ラーニング・フレームワークを提案する。
最初のステップでは、拡張されたモダリティ内スタイルのイメージで再構成とセグメンテーションを行うことを提案する。
第2のステップでは、モデルは、未ペア画像とペア画像の両方の再構成、教師なし/教師なし翻訳、セグメンテーションを共同で行う。
- 参考スコア(独自算出の注目度): 4.43142018105102
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to the difficulties of obtaining multimodal paired images in clinical
practice, recent studies propose to train brain tumor segmentation models with
unpaired images and capture complementary information through modality
translation. However, these models cannot fully exploit the complementary
information from different modalities. In this work, we thus present a novel
two-step (intra-modality and inter-modality) curriculum disentanglement
learning framework to effectively utilize privileged semi-paired images, i.e.
limited paired images that are only available in training, for brain tumor
segmentation. Specifically, in the first step, we propose to conduct
reconstruction and segmentation with augmented intra-modality style-consistent
images. In the second step, the model jointly performs reconstruction,
unsupervised/supervised translation, and segmentation for both unpaired and
paired inter-modality images. A content consistency loss and a supervised
translation loss are proposed to leverage complementary information from
different modalities in this step. Through these two steps, our method
effectively extracts modality-specific style codes describing the attenuation
of tissue features and image contrast, and modality-invariant content codes
containing anatomical and functional information from the input images.
Experiments on three brain tumor segmentation tasks show that our model
outperforms competing segmentation models based on unpaired images.
- Abstract(参考訳): 臨床におけるマルチモーダルペア画像の獲得が困難であるため,近年の研究では,非ペア画像を用いた脳腫瘍分割モデルの訓練と,モダリティ翻訳による補完的情報収集が提案されている。
しかし、これらのモデルは異なるモダリティから補完情報を完全に活用することはできない。
そこで本研究では,脳腫瘍の分節化のために,トレーニング時にのみ利用できる限定的な半ペア画像(半ペア画像)を効果的に活用するための,新たな2段階のカリキュラム・アンタングルメント学習フレームワークを提案する。
具体的には,まず,モダリティ内スタイル整合画像の拡張による再構成とセグメンテーションを行う。
第2のステップでは、モデルは、未ペア画像とペア画像の両方の再構成、教師なし/教師なし翻訳、セグメンテーションを共同で行う。
本ステップでは,異なるモダリティからの補完的情報を活用するために,コンテンツ一貫性の損失と教師付き翻訳損失を提案する。
この2つのステップを通じて、組織の特徴と画像コントラストの減衰を記述するモダリティ固有のスタイルコードと、入力画像から解剖学的および機能的情報を含むモダリティ不変コンテンツコードとを効果的に抽出する。
3つの脳腫瘍セグメンテーションタスクの実験により、このモデルが非ペア画像に基づく競合セグメンテーションモデルよりも優れていることが示された。
関連論文リスト
- Enhancing Incomplete Multi-modal Brain Tumor Segmentation with Intra-modal Asymmetry and Inter-modal Dependency [31.047259264831947]
現実の一般的な問題は、様々なスキャンプロトコルや患者の状態によって、いくつかのモダリティが利用できないことである。
従来の手法では、アクセス可能なマルチモーダルの特徴を融合させ、注意機構を活用し、欠落したモダリティを合成することで、この問題に対処しようと試みてきた。
本稿では,2つの視点から深層学習に基づく脳腫瘍セグメンテーションモデルを提案する。
論文 参考訳(メタデータ) (2024-06-14T16:54:53Z) - Cross-model Mutual Learning for Exemplar-based Medical Image Segmentation [25.874281336821685]
Exemplar-based Medical Image(CMEMS)のためのクロスモデル相互学習フレームワーク
外来医用画像のためのクロスモデル相互学習フレームワーク(CMEMS)について紹介する。
論文 参考訳(メタデータ) (2024-04-18T00:18:07Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - M-GenSeg: Domain Adaptation For Target Modality Tumor Segmentation With
Annotation-Efficient Supervision [4.023899199756184]
M-GenSegは、クロスモダリティ腫瘍セグメンテーションのための、新しい半教師付きジェネレーショントレーニング戦略である。
4つの異なるコントラスト配列からなる脳腫瘍セグメント化データセットの性能評価を行った。
以前の技術とは異なり、M-GenSegは部分的に注釈付きソースモダリティでトレーニングする機能も導入している。
論文 参考訳(メタデータ) (2022-12-14T15:19:06Z) - Unsupervised Image Registration Towards Enhancing Performance and
Explainability in Cardiac And Brain Image Analysis [3.5718941645696485]
モダリティ内およびモダリティ内アフィンおよび非リグイド画像登録は、臨床画像診断において必須の医用画像解析プロセスである。
本稿では、アフィンおよび非剛性変換を正確にモデル化できる教師なしディープラーニング登録手法を提案する。
本手法は,モーダリティ不変の潜在反感を学習するために,双方向のモーダリティ画像合成を行う。
論文 参考訳(メタデータ) (2022-03-07T12:54:33Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z) - Modality Completion via Gaussian Process Prior Variational Autoencoders
for Multi-Modal Glioma Segmentation [75.58395328700821]
本稿では,患者スキャンに欠落するサブモダリティを1つ以上のインプットするために,MGP-VAE(Multi-modal Gaussian Process Prior Variational Autoencoder)を提案する。
MGP-VAEは、変分オートエンコーダ(VAE)に先立ってガウス過程(GP)を利用して、被験者/患者およびサブモダリティ相関を利用することができる。
4つのサブモダリティのうち2つ、または3つが欠落している脳腫瘍に対するMGP-VAEの適用性を示す。
論文 参考訳(メタデータ) (2021-07-07T19:06:34Z) - Representation Disentanglement for Multi-modal MR Analysis [15.498244253687337]
近年の研究では、マルチモーダルディープラーニング分析は、画像から解剖学的(形状)およびモダリティ(外観)表現を明示的に切り離すことから恩恵を受けることができることが示唆されている。
対象とモダリティをまたいだ表現の類似性関係を正規化するマージン損失を提案する。
頑健なトレーニングを実現するため,全てのモダリティの画像を符号化する単一モデルの設計のために条件付き畳み込みを導入する。
論文 参考訳(メタデータ) (2021-02-23T02:08:38Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Learning Deformable Image Registration from Optimization: Perspective,
Modules, Bilevel Training and Beyond [62.730497582218284]
マルチスケールの伝搬により微分同相モデルを最適化する,新しいディープラーニングベースのフレームワークを開発した。
我々は,脳MRIデータにおける画像-アトラス登録,肝CTデータにおける画像-画像登録を含む,3次元ボリュームデータセットにおける画像登録実験の2つのグループを実行する。
論文 参考訳(メタデータ) (2020-04-30T03:23:45Z) - Robust Multimodal Brain Tumor Segmentation via Feature Disentanglement
and Gated Fusion [71.87627318863612]
画像モダリティの欠如に頑健な新しいマルチモーダルセグメンテーションフレームワークを提案する。
我々のネットワークは、入力モードをモダリティ固有の外観コードに分解するために、特徴不整合を用いる。
我々は,BRATSチャレンジデータセットを用いて,重要なマルチモーダル脳腫瘍セグメンテーション課題に対する本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-02-22T14:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。