論文の概要: SLaM-DiMM: Shared Latent Modeling for Diffusion Based Missing Modality Synthesis in MRI
- arxiv url: http://arxiv.org/abs/2509.16019v1
- Date: Fri, 19 Sep 2025 14:27:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-22 18:18:11.200194
- Title: SLaM-DiMM: Shared Latent Modeling for Diffusion Based Missing Modality Synthesis in MRI
- Title(参考訳): SLaM-DiMM:MRIにおける拡散型欠落モード合成のための共有潜在モデル
- Authors: Bhavesh Sandbhor, Bheeshm Sharma, Balamurugan Palaniappan,
- Abstract要約: 脳MRIスキャンは、T1強調画像(T1ceとT1w)、T2強調画像(T2w)、Frairの4つのモードでしばしば見られる。
SLaM-DiMMは、拡散モデルのパワーを利用して、他の利用可能なモダリティから4つのMRIモダリティのいずれかを合成する新しいモダリティ生成フレームワークである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Brain MRI scans are often found in four modalities, consisting of T1-weighted with and without contrast enhancement (T1ce and T1w), T2-weighted imaging (T2w), and Flair. Leveraging complementary information from these different modalities enables models to learn richer, more discriminative features for understanding brain anatomy, which could be used in downstream tasks such as anomaly detection. However, in clinical practice, not all MRI modalities are always available due to various reasons. This makes missing modality generation a critical challenge in medical image analysis. In this paper, we propose SLaM-DiMM, a novel missing modality generation framework that harnesses the power of diffusion models to synthesize any of the four target MRI modalities from other available modalities. Our approach not only generates high-fidelity images but also ensures structural coherence across the depth of the volume through a dedicated coherence enhancement mechanism. Qualitative and quantitative evaluations on the BraTS-Lighthouse-2025 Challenge dataset demonstrate the effectiveness of the proposed approach in synthesizing anatomically plausible and structurally consistent results. Code is available at https://github.com/BheeshmSharma/SLaM-DiMM-MICCAI-BraTS-Challenge-2025.
- Abstract(参考訳): 脳MRIスキャンは、T1強調画像(T1ceとT1w)、T2強調画像(T2w)、Frairの4つのモードでしばしば見られる。
これらの異なるモダリティから補完的な情報を活用することで、モデルがより豊かで差別的な特徴を学習し、脳解剖を理解することができる。
しかし、臨床実践においては、様々な理由から全てのMRIモダリティが常に利用可能であるとは限らない。
これにより、医用画像解析においてモダリティの欠如が重要な課題となる。
本稿では,拡散モデルのパワーを生かした新しいモダリティ生成フレームワークであるSLaM-DiMMを提案する。
提案手法は,高忠実度画像を生成するだけでなく,専用コヒーレンス強調機構により体積の深さにわたって構造的コヒーレンスを確保する。
BraTS-Lighthouse-2025 Challengeデータセットの質的および定量的評価は、解剖学的に妥当で構造的に一貫した結果の合成における提案手法の有効性を示す。
コードはhttps://github.com/BheeshmSharma/SLaM-DiMM-MICCAI-BraTS-Challenge-2025で公開されている。
関連論文リスト
- Modality-Agnostic Input Channels Enable Segmentation of Brain lesions in Multimodal MRI with Sequences Unavailable During Training [4.672822120456554]
マルチモーダル脳MRIのほとんどのセグメンテーションモデルは固定モードに制限されている。
いくつかのモデルは、目に見えないモダリティに一般化するが、モダリティ固有の情報を失う可能性がある。
本研究の目的は、トレーニング中に見えない画像のモダリティを含むデータに対して推論を行うモデルを開発することである。
論文 参考訳(メタデータ) (2025-09-11T09:25:30Z) - Multi-modal Contrastive Learning for Tumor-specific Missing Modality Synthesis [1.4132765964347058]
臨床環境での高品質なマルチモーダルMRIは、時間的制約、高コスト、患者の運動アーチファクトが原因で困難である。
PLAVEは,腫瘍領域に焦点をあてたマルチモーダルコントラスト学習を統合したMRIの再生モデルを構築した。
脳MR画像合成の課題で得られた結果は、提案モデルが欠落したモダリティを生成するのに優れていることを示している。
論文 参考訳(メタデータ) (2025-02-26T18:34:58Z) - A Unified Model for Compressed Sensing MRI Across Undersampling Patterns [69.19631302047569]
様々な計測アンサンプパターンと画像解像度に頑健な統合MRI再構成モデルを提案する。
我々のモデルは、拡散法よりも600$times$高速な推論で、最先端CNN(End-to-End VarNet)の4dBでSSIMを11%改善し、PSNRを4dB改善する。
論文 参考訳(メタデータ) (2024-10-05T20:03:57Z) - Cross-modality Guidance-aided Multi-modal Learning with Dual Attention
for MRI Brain Tumor Grading [47.50733518140625]
脳腫瘍は世界で最も致命的ながんの1つであり、子供や高齢者に非常に多い。
本稿では,MRI脳腫瘍グレーディングの課題に対処するために,新たな多モード学習法を提案する。
論文 参考訳(メタデータ) (2024-01-17T07:54:49Z) - CoLa-Diff: Conditional Latent Diffusion Model for Multi-Modal MRI
Synthesis [11.803971719704721]
ほとんどの拡散ベースのMRI合成モデルは単一のモードを使用している。
拡散型多モードMRI合成モデル、すなわち条件付き潜在拡散モデル(CoLa-Diff)を提案する。
実験により、CoLa-Diffは他の最先端MRI合成法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-03-24T15:46:10Z) - Model-Guided Multi-Contrast Deep Unfolding Network for MRI
Super-resolution Reconstruction [68.80715727288514]
MRI観察行列を用いて,反復型MGDUNアルゴリズムを新しいモデル誘導深部展開ネットワークに展開する方法を示す。
本稿では,医療画像SR再構成のためのモデルガイド型解釈可能なDeep Unfolding Network(MGDUN)を提案する。
論文 参考訳(メタデータ) (2022-09-15T03:58:30Z) - Modality Completion via Gaussian Process Prior Variational Autoencoders
for Multi-Modal Glioma Segmentation [75.58395328700821]
本稿では,患者スキャンに欠落するサブモダリティを1つ以上のインプットするために,MGP-VAE(Multi-modal Gaussian Process Prior Variational Autoencoder)を提案する。
MGP-VAEは、変分オートエンコーダ(VAE)に先立ってガウス過程(GP)を利用して、被験者/患者およびサブモダリティ相関を利用することができる。
4つのサブモダリティのうち2つ、または3つが欠落している脳腫瘍に対するMGP-VAEの適用性を示す。
論文 参考訳(メタデータ) (2021-07-07T19:06:34Z) - A Unified Conditional Disentanglement Framework for Multimodal Brain MR
Image Translation [11.26646475512469]
入力モダリティから任意のモダリティを合成するための統一条件解離フレームワークを提案する。
BraTS'18データベースから,T1強調,T1コントラスト強調,T2強調,FLAIR MRIの4つのMRIモダリティについて検証した。
論文 参考訳(メタデータ) (2021-01-14T03:14:24Z) - Lesion Mask-based Simultaneous Synthesis of Anatomic and MolecularMR
Images using a GAN [59.60954255038335]
提案するフレームワークは,ストレッチアウトアップサンプリングモジュール,ブレインアトラスエンコーダ,セグメンテーション一貫性モジュール,マルチスケールラベルワイド識別器から構成される。
実際の臨床データを用いた実験により,提案モデルが最先端の合成法よりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-06-26T02:50:09Z) - Multi-Modality Generative Adversarial Networks with Tumor Consistency
Loss for Brain MR Image Synthesis [30.64847799586407]
1つのMRモードT2から3つの高品質MRモード(FLAIR, T1, T1ce)を同時に合成する多モード生成対向ネットワーク(MGAN)を提案する。
実験結果から, 合成画像の品質は, ベースラインモデル, pix2pixで合成した画像より優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-02T21:33:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。