論文の概要: CoLa-Diff: Conditional Latent Diffusion Model for Multi-Modal MRI
Synthesis
- arxiv url: http://arxiv.org/abs/2303.14081v1
- Date: Fri, 24 Mar 2023 15:46:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-27 14:03:07.561483
- Title: CoLa-Diff: Conditional Latent Diffusion Model for Multi-Modal MRI
Synthesis
- Title(参考訳): CoLa-Diff:マルチモードMRI合成のための条件付き潜時拡散モデル
- Authors: Lan Jiang, Ye Mao, Xi Chen, Xiangfeng Wang, Chao Li
- Abstract要約: ほとんどの拡散ベースのMRI合成モデルは単一のモードを使用している。
拡散型多モードMRI合成モデル、すなわち条件付き潜在拡散モデル(CoLa-Diff)を提案する。
実験により、CoLa-Diffは他の最先端MRI合成法よりも優れていることが示された。
- 参考スコア(独自算出の注目度): 11.803971719704721
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: MRI synthesis promises to mitigate the challenge of missing MRI modality in
clinical practice. Diffusion model has emerged as an effective technique for
image synthesis by modelling complex and variable data distributions. However,
most diffusion-based MRI synthesis models are using a single modality. As they
operate in the original image domain, they are memory-intensive and less
feasible for multi-modal synthesis. Moreover, they often fail to preserve the
anatomical structure in MRI. Further, balancing the multiple conditions from
multi-modal MRI inputs is crucial for multi-modal synthesis. Here, we propose
the first diffusion-based multi-modality MRI synthesis model, namely
Conditioned Latent Diffusion Model (CoLa-Diff). To reduce memory consumption,
we design CoLa-Diff to operate in the latent space. We propose a novel network
architecture, e.g., similar cooperative filtering, to solve the possible
compression and noise in latent space. To better maintain the anatomical
structure, brain region masks are introduced as the priors of density
distributions to guide diffusion process. We further present auto-weight
adaptation to employ multi-modal information effectively. Our experiments
demonstrate that CoLa-Diff outperforms other state-of-the-art MRI synthesis
methods, promising to serve as an effective tool for multi-modal MRI synthesis.
- Abstract(参考訳): MRI合成は、臨床実践におけるMRIモダリティの欠如の課題を軽減することを約束する。
拡散モデルは複雑なデータ分布と可変データ分布をモデル化して画像合成に有効な手法として登場した。
しかし、ほとんどの拡散ベースのMRI合成モデルは単一のモードを使用している。
元の画像領域で動作するため、メモリ集約性が高く、マルチモーダル合成では実現不可能である。
さらに、MRIでは解剖学的構造を保たないことが多い。
さらに、マルチモーダルMRI入力からの複数の条件のバランスは、マルチモーダル合成に不可欠である。
本稿では,最初の拡散に基づく多モードMRI合成モデル,すなわち条件付き潜在拡散モデル(CoLa-Diff)を提案する。
メモリ消費を低減するため,我々はCoLa-Diffを潜在空間で動作させるために設計する。
本稿では,遅延空間における圧縮とノイズを解決するために,協調フィルタリングなどの新しいネットワークアーキテクチャを提案する。
解剖学的構造をより良く維持するために、拡散過程を導くために密度分布の優先として脳領域マスクが導入された。
さらに、マルチモーダル情報を有効に活用するためのオートウェイト適応を提案する。
実験の結果、CoLa-Diffは他の最先端MRI合成法よりも優れており、マルチモーダルMRI合成の有効なツールとして機能することを約束している。
関連論文リスト
- Phy-Diff: Physics-guided Hourglass Diffusion Model for Diffusion MRI Synthesis [45.074243735766]
本稿では,高画質のdMRIを生成する物理誘導拡散モデルを提案する。
本モデルは拡散過程におけるノイズ進化におけるdMRIの物理原理を紹介する。
実験の結果,本手法は他の最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2024-06-05T07:09:19Z) - MindFormer: A Transformer Architecture for Multi-Subject Brain Decoding via fMRI [50.55024115943266]
我々は、fMRI条件の特徴ベクトルを生成するためにMindFormerと呼ばれる新しいトランスフォーマーアーキテクチャを導入する。
MindFormerは,1)fMRI信号から意味論的に意味のある特徴を抽出するIP-Adapterに基づく新しいトレーニング戦略,2)fMRI信号の個人差を効果的に捉える主観的トークンと線形層である。
論文 参考訳(メタデータ) (2024-05-28T00:36:25Z) - Memory-efficient High-resolution OCT Volume Synthesis with Cascaded Amortized Latent Diffusion Models [48.87160158792048]
本稿では,高分解能CTボリュームをメモリ効率よく合成できるCA-LDM(Cascaded amortized Latent diffusion model)を提案する。
公開高解像度OCTデータセットを用いた実験により、我々の合成データは、既存の手法の能力を超越した、現実的な高解像度かつグローバルな特徴を持つことが示された。
論文 参考訳(メタデータ) (2024-05-26T10:58:22Z) - NeuroPictor: Refining fMRI-to-Image Reconstruction via Multi-individual Pretraining and Multi-level Modulation [55.51412454263856]
本稿では,fMRI信号を用いた拡散モデル生成過程を直接変調することを提案する。
様々な個人から約67,000 fMRI-imageペアのトレーニングを行うことで,fMRI-to-imageデコーディング能力に優れたモデルが得られた。
論文 参考訳(メタデータ) (2024-03-27T02:42:52Z) - Disentangled Multimodal Brain MR Image Translation via Transformer-based
Modality Infuser [12.402947207350394]
マルチモーダル脳MR画像の合成を目的としたトランスフォーマーを用いたモダリティインジェクタを提案する。
本手法では,エンコーダからモダリティに依存しない特徴を抽出し,その特徴をモダリティ固有の特徴に変換する。
われわれはBraTS 2018データセットで4つのMRモードを変換する実験を行った。
論文 参考訳(メタデータ) (2024-02-01T06:34:35Z) - Model-Guided Multi-Contrast Deep Unfolding Network for MRI
Super-resolution Reconstruction [68.80715727288514]
MRI観察行列を用いて,反復型MGDUNアルゴリズムを新しいモデル誘導深部展開ネットワークに展開する方法を示す。
本稿では,医療画像SR再構成のためのモデルガイド型解釈可能なDeep Unfolding Network(MGDUN)を提案する。
論文 参考訳(メタデータ) (2022-09-15T03:58:30Z) - A Learnable Variational Model for Joint Multimodal MRI Reconstruction
and Synthesis [4.056490719080639]
マルチモーダルMRIの関節再構成と合成のための新しいディープラーニングモデルを提案する。
本モデルの出力は、ソースのモダリティの再構成画像と、ターゲットのモダリティで合成された高品質な画像を含む。
論文 参考訳(メタデータ) (2022-04-08T01:35:19Z) - Multi-Modality Generative Adversarial Networks with Tumor Consistency
Loss for Brain MR Image Synthesis [30.64847799586407]
1つのMRモードT2から3つの高品質MRモード(FLAIR, T1, T1ce)を同時に合成する多モード生成対向ネットワーク(MGAN)を提案する。
実験結果から, 合成画像の品質は, ベースラインモデル, pix2pixで合成した画像より優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-02T21:33:15Z) - Multifold Acceleration of Diffusion MRI via Slice-Interleaved Diffusion
Encoding (SIDE) [50.65891535040752]
本稿では,Slice-Interleaved Diffusionと呼ばれる拡散符号化方式を提案する。
SIDEは、拡散重み付き(DW)画像ボリュームを異なる拡散勾配で符号化したスライスでインターリーブする。
また,高いスライスアンサンプデータからDW画像を効果的に再構成するためのディープラーニングに基づく手法を提案する。
論文 参考訳(メタデータ) (2020-02-25T14:48:17Z) - Hi-Net: Hybrid-fusion Network for Multi-modal MR Image Synthesis [143.55901940771568]
マルチモーダルMR画像合成のためのHybrid-fusion Network(Hi-Net)を提案する。
当社のHi-Netでは,各モーダリティの表現を学習するために,モーダリティ特化ネットワークを用いている。
マルチモーダル合成ネットワークは、潜在表現と各モーダルの階層的特徴を密結合するように設計されている。
論文 参考訳(メタデータ) (2020-02-11T08:26:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。