論文の概要: Multi-Modality Generative Adversarial Networks with Tumor Consistency
Loss for Brain MR Image Synthesis
- arxiv url: http://arxiv.org/abs/2005.00925v1
- Date: Sat, 2 May 2020 21:33:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 12:50:52.862735
- Title: Multi-Modality Generative Adversarial Networks with Tumor Consistency
Loss for Brain MR Image Synthesis
- Title(参考訳): 脳MR画像合成のための腫瘍一致損失を有する多モード生成逆ネットワーク
- Authors: Bingyu Xin, Yifan Hu, Yefeng Zheng, Hongen Liao
- Abstract要約: 1つのMRモードT2から3つの高品質MRモード(FLAIR, T1, T1ce)を同時に合成する多モード生成対向ネットワーク(MGAN)を提案する。
実験結果から, 合成画像の品質は, ベースラインモデル, pix2pixで合成した画像より優れていることがわかった。
- 参考スコア(独自算出の注目度): 30.64847799586407
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Magnetic Resonance (MR) images of different modalities can provide
complementary information for clinical diagnosis, but whole modalities are
often costly to access. Most existing methods only focus on synthesizing
missing images between two modalities, which limits their robustness and
efficiency when multiple modalities are missing. To address this problem, we
propose a multi-modality generative adversarial network (MGAN) to synthesize
three high-quality MR modalities (FLAIR, T1 and T1ce) from one MR modality T2
simultaneously. The experimental results show that the quality of the
synthesized images by our proposed methods is better than the one synthesized
by the baseline model, pix2pix. Besides, for MR brain image synthesis, it is
important to preserve the critical tumor information in the generated
modalities, so we further introduce a multi-modality tumor consistency loss to
MGAN, called TC-MGAN. We use the synthesized modalities by TC-MGAN to boost the
tumor segmentation accuracy, and the results demonstrate its effectiveness.
- Abstract(参考訳): 異なるモードのMR画像は臨床診断に相補的な情報を提供することができるが、全モードはアクセスにコストがかかることが多い。
既存のほとんどの手法は、欠落した画像を2つのモード間で合成することにのみ焦点を当てている。
この問題に対処するために,1つのMRモダリティT2から3つの高品質MRモード(FLAIR,T1,T1ce)を同時に合成する多モード生成対向ネットワーク(MGAN)を提案する。
実験結果から,提案手法による合成画像の品質は,ベースラインモデルpix2pixによる合成画像より優れていることがわかった。
また, MR脳画像合成においては, 生成したモダリティの悪性腫瘍情報を保存することが重要であり, さらに, TC-MGANと呼ばれるMGANにマルチモダリティ腫瘍の整合性損失を導入する。
TC-MGANによる合成モダリティを用いて腫瘍のセグメンテーションの精度を高め,その効果を実証した。
関連論文リスト
- Two-Stage Approach for Brain MR Image Synthesis: 2D Image Synthesis and 3D Refinement [1.5683566370372715]
腫瘍像を正確に表現することで,欠失モードの特異な特徴を反映したMRI画像の合成が重要である。
本稿では,2次元スライスからMR画像を合成する2段階の手法を提案する。
論文 参考訳(メタデータ) (2024-10-14T08:21:08Z) - Towards General Text-guided Image Synthesis for Customized Multimodal Brain MRI Generation [51.28453192441364]
マルチモーダル脳磁気共鳴(MR)イメージングは神経科学や神経学において不可欠である。
現在のMR画像合成アプローチは、通常、特定のタスクのための独立したデータセットで訓練される。
テキスト誘導ユニバーサルMR画像合成モデルであるTUMSynについて述べる。
論文 参考訳(メタデータ) (2024-09-25T11:14:47Z) - Disentangled Multimodal Brain MR Image Translation via Transformer-based
Modality Infuser [12.402947207350394]
マルチモーダル脳MR画像の合成を目的としたトランスフォーマーを用いたモダリティインジェクタを提案する。
本手法では,エンコーダからモダリティに依存しない特徴を抽出し,その特徴をモダリティ固有の特徴に変換する。
われわれはBraTS 2018データセットで4つのMRモードを変換する実験を行った。
論文 参考訳(メタデータ) (2024-02-01T06:34:35Z) - Enhanced Synthetic MRI Generation from CT Scans Using CycleGAN with
Feature Extraction [3.2088888904556123]
合成MRI画像を用いたCTスキャンによるモノモーダル登録の高速化手法を提案する。
提案手法は有望な結果を示し,いくつかの最先端手法より優れていた。
論文 参考訳(メタデータ) (2023-10-31T16:39:56Z) - Spatial and Modal Optimal Transport for Fast Cross-Modal MRI Reconstruction [54.19448988321891]
本稿では,T1重み付き画像(T1WIs)を補助モダリティとして活用し,T2WIsの取得を高速化するエンド・ツー・エンドのディープラーニングフレームワークを提案する。
最適輸送(OT)を用いてT1WIを整列させてT2WIを合成し、クロスモーダル合成を行う。
再構成されたT2WIと合成されたT2WIがT2画像多様体に近づき、繰り返しが増加することを示す。
論文 参考訳(メタデータ) (2023-05-04T12:20:51Z) - Model-Guided Multi-Contrast Deep Unfolding Network for MRI
Super-resolution Reconstruction [68.80715727288514]
MRI観察行列を用いて,反復型MGDUNアルゴリズムを新しいモデル誘導深部展開ネットワークに展開する方法を示す。
本稿では,医療画像SR再構成のためのモデルガイド型解釈可能なDeep Unfolding Network(MGDUN)を提案する。
論文 参考訳(メタデータ) (2022-09-15T03:58:30Z) - Multi-modal Brain Tumor Segmentation via Missing Modality Synthesis and
Modality-level Attention Fusion [3.9562534927482704]
我々は、Modality-Level Attention Fusion Network (MAF-Net) というエンドツーエンドフレームワークを提案する。
提案するMAF-Netはより優れたT1ce合成性能と正確な脳腫瘍セグメンテーションをもたらす。
論文 参考訳(メタデータ) (2022-03-09T09:08:48Z) - Confidence-guided Lesion Mask-based Simultaneous Synthesis of Anatomic
and Molecular MR Images in Patients with Post-treatment Malignant Gliomas [65.64363834322333]
信頼性ガイドSAMR(CG-SAMR)は、病変情報からマルチモーダル解剖学的配列にデータを合成する。
モジュールは中間結果に対する信頼度測定に基づいて合成をガイドする。
実際の臨床データを用いた実験により,提案モデルが最先端の合成法よりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-08-06T20:20:22Z) - Lesion Mask-based Simultaneous Synthesis of Anatomic and MolecularMR
Images using a GAN [59.60954255038335]
提案するフレームワークは,ストレッチアウトアップサンプリングモジュール,ブレインアトラスエンコーダ,セグメンテーション一貫性モジュール,マルチスケールラベルワイド識別器から構成される。
実際の臨床データを用いた実験により,提案モデルが最先端の合成法よりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-06-26T02:50:09Z) - Hi-Net: Hybrid-fusion Network for Multi-modal MR Image Synthesis [143.55901940771568]
マルチモーダルMR画像合成のためのHybrid-fusion Network(Hi-Net)を提案する。
当社のHi-Netでは,各モーダリティの表現を学習するために,モーダリティ特化ネットワークを用いている。
マルチモーダル合成ネットワークは、潜在表現と各モーダルの階層的特徴を密結合するように設計されている。
論文 参考訳(メタデータ) (2020-02-11T08:26:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。