論文の概要: Multi-Modality Generative Adversarial Networks with Tumor Consistency
Loss for Brain MR Image Synthesis
- arxiv url: http://arxiv.org/abs/2005.00925v1
- Date: Sat, 2 May 2020 21:33:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 12:50:52.862735
- Title: Multi-Modality Generative Adversarial Networks with Tumor Consistency
Loss for Brain MR Image Synthesis
- Title(参考訳): 脳MR画像合成のための腫瘍一致損失を有する多モード生成逆ネットワーク
- Authors: Bingyu Xin, Yifan Hu, Yefeng Zheng, Hongen Liao
- Abstract要約: 1つのMRモードT2から3つの高品質MRモード(FLAIR, T1, T1ce)を同時に合成する多モード生成対向ネットワーク(MGAN)を提案する。
実験結果から, 合成画像の品質は, ベースラインモデル, pix2pixで合成した画像より優れていることがわかった。
- 参考スコア(独自算出の注目度): 30.64847799586407
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Magnetic Resonance (MR) images of different modalities can provide
complementary information for clinical diagnosis, but whole modalities are
often costly to access. Most existing methods only focus on synthesizing
missing images between two modalities, which limits their robustness and
efficiency when multiple modalities are missing. To address this problem, we
propose a multi-modality generative adversarial network (MGAN) to synthesize
three high-quality MR modalities (FLAIR, T1 and T1ce) from one MR modality T2
simultaneously. The experimental results show that the quality of the
synthesized images by our proposed methods is better than the one synthesized
by the baseline model, pix2pix. Besides, for MR brain image synthesis, it is
important to preserve the critical tumor information in the generated
modalities, so we further introduce a multi-modality tumor consistency loss to
MGAN, called TC-MGAN. We use the synthesized modalities by TC-MGAN to boost the
tumor segmentation accuracy, and the results demonstrate its effectiveness.
- Abstract(参考訳): 異なるモードのMR画像は臨床診断に相補的な情報を提供することができるが、全モードはアクセスにコストがかかることが多い。
既存のほとんどの手法は、欠落した画像を2つのモード間で合成することにのみ焦点を当てている。
この問題に対処するために,1つのMRモダリティT2から3つの高品質MRモード(FLAIR,T1,T1ce)を同時に合成する多モード生成対向ネットワーク(MGAN)を提案する。
実験結果から,提案手法による合成画像の品質は,ベースラインモデルpix2pixによる合成画像より優れていることがわかった。
また, MR脳画像合成においては, 生成したモダリティの悪性腫瘍情報を保存することが重要であり, さらに, TC-MGANと呼ばれるMGANにマルチモダリティ腫瘍の整合性損失を導入する。
TC-MGANによる合成モダリティを用いて腫瘍のセグメンテーションの精度を高め,その効果を実証した。
関連論文リスト
- Disentangled Multimodal Brain MR Image Translation via Transformer-based
Modality Infuser [12.402947207350394]
マルチモーダル脳MR画像の合成を目的としたトランスフォーマーを用いたモダリティインジェクタを提案する。
本手法では,エンコーダからモダリティに依存しない特徴を抽出し,その特徴をモダリティ固有の特徴に変換する。
われわれはBraTS 2018データセットで4つのMRモードを変換する実験を行った。
論文 参考訳(メタデータ) (2024-02-01T06:34:35Z) - Enhanced Synthetic MRI Generation from CT Scans Using CycleGAN with
Feature Extraction [3.2088888904556123]
合成MRI画像を用いたCTスキャンによるモノモーダル登録の高速化手法を提案する。
提案手法は有望な結果を示し,いくつかの最先端手法より優れていた。
論文 参考訳(メタデータ) (2023-10-31T16:39:56Z) - The Brain Tumor Segmentation (BraTS) Challenge 2023: Brain MR Image
Synthesis for Tumor Segmentation (BraSyn) [5.399839183476989]
本稿では,脳MR画像合成ベンチマーク(BraSyn)とMICCAI(Medical Image Computing and Computer-Assisted Intervention)2023を併用して,脳MR画像合成ベンチマーク(BraSyn)の確立について紹介する。
この課題の主な目的は、複数の利用可能な画像が提供される際に、MRIの欠落を現実的に生成できる画像合成手法を評価することである。
論文 参考訳(メタデータ) (2023-05-15T20:49:58Z) - Spatial and Modal Optimal Transport for Fast Cross-Modal MRI
Reconstruction [54.19448988321891]
本稿では,T1重み付き画像(T1WIs)を補助モダリティとして活用し,T2WIsの取得を高速化するエンド・ツー・エンドのディープラーニングフレームワークを提案する。
最適輸送(OT)を用いてT1WIを整列させてT2WIを合成し、クロスモーダル合成を行う。
再構成されたT2WIと合成されたT2WIがT2画像多様体に近づき、繰り返しが増加することを示す。
論文 参考訳(メタデータ) (2023-05-04T12:20:51Z) - Model-Guided Multi-Contrast Deep Unfolding Network for MRI
Super-resolution Reconstruction [68.80715727288514]
MRI観察行列を用いて,反復型MGDUNアルゴリズムを新しいモデル誘導深部展開ネットワークに展開する方法を示す。
本稿では,医療画像SR再構成のためのモデルガイド型解釈可能なDeep Unfolding Network(MGDUN)を提案する。
論文 参考訳(メタデータ) (2022-09-15T03:58:30Z) - Multi-modal Brain Tumor Segmentation via Missing Modality Synthesis and
Modality-level Attention Fusion [3.9562534927482704]
我々は、Modality-Level Attention Fusion Network (MAF-Net) というエンドツーエンドフレームワークを提案する。
提案するMAF-Netはより優れたT1ce合成性能と正確な脳腫瘍セグメンテーションをもたらす。
論文 参考訳(メタデータ) (2022-03-09T09:08:48Z) - Fast T2w/FLAIR MRI Acquisition by Optimal Sampling of Information
Complementary to Pre-acquired T1w MRI [52.656075914042155]
本稿では,MRIによる他のモダリティ獲得のためのアンダーサンプリングパターンを最適化するための反復的フレームワークを提案する。
公開データセット上で学習したアンダーサンプリングパターンの優れた性能を実証した。
論文 参考訳(メタデータ) (2021-11-11T04:04:48Z) - Confidence-guided Lesion Mask-based Simultaneous Synthesis of Anatomic
and Molecular MR Images in Patients with Post-treatment Malignant Gliomas [65.64363834322333]
信頼性ガイドSAMR(CG-SAMR)は、病変情報からマルチモーダル解剖学的配列にデータを合成する。
モジュールは中間結果に対する信頼度測定に基づいて合成をガイドする。
実際の臨床データを用いた実験により,提案モデルが最先端の合成法よりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-08-06T20:20:22Z) - Lesion Mask-based Simultaneous Synthesis of Anatomic and MolecularMR
Images using a GAN [59.60954255038335]
提案するフレームワークは,ストレッチアウトアップサンプリングモジュール,ブレインアトラスエンコーダ,セグメンテーション一貫性モジュール,マルチスケールラベルワイド識別器から構成される。
実際の臨床データを用いた実験により,提案モデルが最先端の合成法よりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-06-26T02:50:09Z) - Hi-Net: Hybrid-fusion Network for Multi-modal MR Image Synthesis [143.55901940771568]
マルチモーダルMR画像合成のためのHybrid-fusion Network(Hi-Net)を提案する。
当社のHi-Netでは,各モーダリティの表現を学習するために,モーダリティ特化ネットワークを用いている。
マルチモーダル合成ネットワークは、潜在表現と各モーダルの階層的特徴を密結合するように設計されている。
論文 参考訳(メタデータ) (2020-02-11T08:26:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。