論文の概要: A Unified Conditional Disentanglement Framework for Multimodal Brain MR
Image Translation
- arxiv url: http://arxiv.org/abs/2101.05434v1
- Date: Thu, 14 Jan 2021 03:14:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2021-03-29 10:10:58.565126
- Title: A Unified Conditional Disentanglement Framework for Multimodal Brain MR
Image Translation
- Title(参考訳): マルチモーダル脳MRI画像変換のための統一的条件分散フレームワーク
- Authors: Xiaofeng Liu, Fangxu Xing, Georges El Fakhri, Jonghye Woo
- Abstract要約: 入力モダリティから任意のモダリティを合成するための統一条件解離フレームワークを提案する。
BraTS'18データベースから,T1強調,T1コントラスト強調,T2強調,FLAIR MRIの4つのMRIモダリティについて検証した。
- 参考スコア(独自算出の注目度): 11.26646475512469
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multimodal MRI provides complementary and clinically relevant information to
probe tissue condition and to characterize various diseases. However, it is
often difficult to acquire sufficiently many modalities from the same subject
due to limitations in study plans, while quantitative analysis is still
demanded. In this work, we propose a unified conditional disentanglement
framework to synthesize any arbitrary modality from an input modality. Our
framework hinges on a cycle-constrained conditional adversarial training
approach, where it can extract a modality-invariant anatomical feature with a
modality-agnostic encoder and generate a target modality with a conditioned
decoder. We validate our framework on four MRI modalities, including
T1-weighted, T1 contrast enhanced, T2-weighted, and FLAIR MRI, from the
BraTS'18 database, showing superior performance on synthesis quality over the
comparison methods. In addition, we report results from experiments on a tumor
segmentation task carried out with synthesized data.
- Abstract(参考訳): マルチモーダルMRIは、組織状態を調査し、様々な疾患を特徴づけるために相補的で臨床的に関連のある情報を提供する。
しかし, 定量的解析が要求される一方で, 研究計画の限界により, 同一課題から十分に多くのモダリティを得ることは困難である。
本研究では,任意のモダリティを入力モダリティから合成する統一条件付き不等角化フレームワークを提案する。
本手法は,モダリティ非依存エンコーダを用いてモダリティ不変な解剖学的特徴を抽出し,条件付きデコーダでターゲットモダリティを生成することができる。
我々は,BraTS'18データベースから,T1強調,T1強調,T2強調,FLAIRMRIの4つのMRIモダリティについて検討し,比較法よりも優れた合成品質を示す。
また,合成データを用いて腫瘍の分節処理を行った結果について報告する。
関連論文リスト
- Towards Personalized Multi-Modal MRI Synthesis across Heterogeneous Datasets [23.27744576951669]
PMM-SynthはパーソナライズされたMRI合成フレームワークである。
様々な合成タスクをサポートし、ヘテロジニアスデータセットを効果的に一般化する。
一対一の合成タスクと多対一の合成タスクにおいて、最先端の手法を一貫して上回る。
論文 参考訳(メタデータ) (2026-02-23T11:20:27Z) - Any-to-All MRI Synthesis: A Unified Foundation Model for Nasopharyngeal Carcinoma and Its Downstream Applications [11.15455619035484]
従来のMRI合成法は、モダリティに特有であり、解剖学的適応性に制限があり、NPCのRTニーズを満たすための臨床的解釈可能性の欠如がある。
そこで我々は,コントラッシブな視覚表現学習と視覚言語アライメント(VLA)を統合した統合基盤モデルを構築した。
このモデルは、モダリティ不変表現のためのコントラストエンコーダと、セマンティック一貫性のある合成のためのCLIPベースのテキストインフォームドデコーダを使用し、1つの統合基盤モデルを介して、任意の対全MRI合成をサポートする。
論文 参考訳(メタデータ) (2026-02-09T15:56:53Z) - A Semantically Enhanced Generative Foundation Model Improves Pathological Image Synthesis [82.01597026329158]
本稿では,組織合成のための相関調整フレームワーク(CRAFTS)について紹介する。
CRAFTSは、生物学的精度を確保するためにセマンティックドリフトを抑制する新しいアライメント機構を組み込んでいる。
本モデルは,30種類の癌にまたがる多彩な病理像を生成する。
論文 参考訳(メタデータ) (2025-12-15T10:22:43Z) - SLaM-DiMM: Shared Latent Modeling for Diffusion Based Missing Modality Synthesis in MRI [0.0]
脳MRIスキャンは、T1強調画像(T1ceとT1w)、T2強調画像(T2w)、Frairの4つのモードでしばしば見られる。
SLaM-DiMMは、拡散モデルのパワーを利用して、他の利用可能なモダリティから4つのMRIモダリティのいずれかを合成する新しいモダリティ生成フレームワークである。
論文 参考訳(メタデータ) (2025-09-19T14:27:35Z) - A Unified Framework for Synthesizing Multisequence Brain MRI via Hybrid Fusion [4.47838172826189]
我々はHF-GAN(Hybrid Fusion GAN)と呼ばれる,マルチシーケンスMR画像の合成のための新しい統合フレームワークを提案する。
本稿では,相補的情報と相補的情報との絡み合った抽出を確実にするためのハイブリッド核融合エンコーダを提案する。
共通特徴表現は、欠落したMR配列を合成するために、モダリティ注入器を介してターゲット潜在空間に変換される。
論文 参考訳(メタデータ) (2024-06-21T08:06:00Z) - Disentangled Multimodal Brain MR Image Translation via Transformer-based
Modality Infuser [12.402947207350394]
マルチモーダル脳MR画像の合成を目的としたトランスフォーマーを用いたモダリティインジェクタを提案する。
本手法では,エンコーダからモダリティに依存しない特徴を抽出し,その特徴をモダリティ固有の特徴に変換する。
われわれはBraTS 2018データセットで4つのMRモードを変換する実験を行った。
論文 参考訳(メタデータ) (2024-02-01T06:34:35Z) - The Brain Tumor Segmentation (BraTS) Challenge 2023: Brain MR Image Synthesis for Tumor Segmentation (BraSyn) [9.082208613256295]
本稿では,脳MR画像合成ベンチマーク(BraSyn)とMICCAI(Medical Image Computing and Computer-Assisted Intervention)2023を併用して,脳MR画像合成ベンチマーク(BraSyn)の確立について紹介する。
この課題の主な目的は、複数の利用可能な画像が提供される際に、MRIの欠落を現実的に生成できる画像合成手法を評価することである。
論文 参考訳(メタデータ) (2023-05-15T20:49:58Z) - A Novel Unified Conditional Score-based Generative Framework for
Multi-modal Medical Image Completion [54.512440195060584]
我々は、スコアベース生成モデル(SGM)を活用するために、統一多モードスコアベース生成モデル(UMM-CSGM)を提案する。
UMM-CSGMは、新しいマルチインマルチアウトコンディションスコアネットワーク(mm-CSN)を用いて、クロスモーダル条件分布の包括的集合を学習する。
BraTS19データセットの実験により、UMM-CSGMは腫瘍誘発病変における不均一な増強と不規則な領域をより確実に合成できることが示された。
論文 参考訳(メタデータ) (2022-07-07T16:57:21Z) - Fast T2w/FLAIR MRI Acquisition by Optimal Sampling of Information
Complementary to Pre-acquired T1w MRI [52.656075914042155]
本稿では,MRIによる他のモダリティ獲得のためのアンダーサンプリングパターンを最適化するための反復的フレームワークを提案する。
公開データセット上で学習したアンダーサンプリングパターンの優れた性能を実証した。
論文 参考訳(メタデータ) (2021-11-11T04:04:48Z) - Modality Completion via Gaussian Process Prior Variational Autoencoders
for Multi-Modal Glioma Segmentation [75.58395328700821]
本稿では,患者スキャンに欠落するサブモダリティを1つ以上のインプットするために,MGP-VAE(Multi-modal Gaussian Process Prior Variational Autoencoder)を提案する。
MGP-VAEは、変分オートエンコーダ(VAE)に先立ってガウス過程(GP)を利用して、被験者/患者およびサブモダリティ相関を利用することができる。
4つのサブモダリティのうち2つ、または3つが欠落している脳腫瘍に対するMGP-VAEの適用性を示す。
論文 参考訳(メタデータ) (2021-07-07T19:06:34Z) - Deep Learning based Multi-modal Computing with Feature Disentanglement
for MRI Image Synthesis [8.363448006582065]
本稿では,MRI合成のための深層学習に基づくマルチモーダル計算モデルを提案する。
提案手法は,各入力モダリティを,共有情報と特定の情報を持つモダリティ固有空間で分割する。
テストフェーズにおける目標モダリティの特定情報の欠如に対処するために、局所適応融合(laf)モジュールを採用してモダリティライクな擬似ターゲットを生成する。
論文 参考訳(メタデータ) (2021-05-06T17:22:22Z) - Confidence-guided Lesion Mask-based Simultaneous Synthesis of Anatomic
and Molecular MR Images in Patients with Post-treatment Malignant Gliomas [65.64363834322333]
信頼性ガイドSAMR(CG-SAMR)は、病変情報からマルチモーダル解剖学的配列にデータを合成する。
モジュールは中間結果に対する信頼度測定に基づいて合成をガイドする。
実際の臨床データを用いた実験により,提案モデルが最先端の合成法よりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-08-06T20:20:22Z) - Lesion Mask-based Simultaneous Synthesis of Anatomic and MolecularMR
Images using a GAN [59.60954255038335]
提案するフレームワークは,ストレッチアウトアップサンプリングモジュール,ブレインアトラスエンコーダ,セグメンテーション一貫性モジュール,マルチスケールラベルワイド識別器から構成される。
実際の臨床データを用いた実験により,提案モデルが最先端の合成法よりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-06-26T02:50:09Z) - Multi-Modality Generative Adversarial Networks with Tumor Consistency
Loss for Brain MR Image Synthesis [30.64847799586407]
1つのMRモードT2から3つの高品質MRモード(FLAIR, T1, T1ce)を同時に合成する多モード生成対向ネットワーク(MGAN)を提案する。
実験結果から, 合成画像の品質は, ベースラインモデル, pix2pixで合成した画像より優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-02T21:33:15Z) - Robust Multimodal Brain Tumor Segmentation via Feature Disentanglement
and Gated Fusion [71.87627318863612]
画像モダリティの欠如に頑健な新しいマルチモーダルセグメンテーションフレームワークを提案する。
我々のネットワークは、入力モードをモダリティ固有の外観コードに分解するために、特徴不整合を用いる。
我々は,BRATSチャレンジデータセットを用いて,重要なマルチモーダル脳腫瘍セグメンテーション課題に対する本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-02-22T14:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。