論文の概要: Benchmarking GANs, Diffusion Models, and Flow Matching for T1w-to-T2w MRI Translation
- arxiv url: http://arxiv.org/abs/2507.14575v1
- Date: Sat, 19 Jul 2025 10:58:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 20:51:31.94896
- Title: Benchmarking GANs, Diffusion Models, and Flow Matching for T1w-to-T2w MRI Translation
- Title(参考訳): T1w-to-T2w MRI翻訳におけるGAN,拡散モデル,フローマッチングのベンチマーク
- Authors: Andrea Moschetto, Lemuel Puglisi, Alec Sargood, Pierluigi Dell'Acqua, Francesco Guarnera, Sebastiano Battiato, Daniele Ravì,
- Abstract要約: I2Iアプローチは、診断品質を維持しながらMRIコントラストを合成することを目的としている。
本稿では,生成的獲得モデル,拡散モデル,フローベースマッチング技術に関する包括的なフレームワークを提案する。
結果は、フローベースのモデルはデータセットや単純なタスクに過度に適合する傾向があり、既存のメソッドにマッチしたり、超えたりするためにより多くのデータを必要とする可能性があることを示唆している。
- 参考スコア(独自算出の注目度): 3.9672323132974525
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Magnetic Resonance Imaging (MRI) enables the acquisition of multiple image contrasts, such as T1-weighted (T1w) and T2-weighted (T2w) scans, each offering distinct diagnostic insights. However, acquiring all desired modalities increases scan time and cost, motivating research into computational methods for cross-modal synthesis. To address this, recent approaches aim to synthesize missing MRI contrasts from those already acquired, reducing acquisition time while preserving diagnostic quality. Image-to-image (I2I) translation provides a promising framework for this task. In this paper, we present a comprehensive benchmark of generative models$\unicode{x2013}$specifically, Generative Adversarial Networks (GANs), diffusion models, and flow matching (FM) techniques$\unicode{x2013}$for T1w-to-T2w 2D MRI I2I translation. All frameworks are implemented with comparable settings and evaluated on three publicly available MRI datasets of healthy adults. Our quantitative and qualitative analyses show that the GAN-based Pix2Pix model outperforms diffusion and FM-based methods in terms of structural fidelity, image quality, and computational efficiency. Consistent with existing literature, these results suggest that flow-based models are prone to overfitting on small datasets and simpler tasks, and may require more data to match or surpass GAN performance. These findings offer practical guidance for deploying I2I translation techniques in real-world MRI workflows and highlight promising directions for future research in cross-modal medical image synthesis. Code and models are publicly available at https://github.com/AndreaMoschetto/medical-I2I-benchmark.
- Abstract(参考訳): 磁気共鳴イメージング(MRI)は、T1重み(T1w)やT2重み(T2w)スキャンなどの複数の画像コントラストの取得を可能にする。
しかし、全ての望ましいモダリティの獲得はスキャン時間とコストを増大させ、クロスモーダル合成のための計算方法の研究を動機付けている。
これを解決するために、近年のアプローチは、既に取得したMRIのコントラストの欠如を合成し、診断品質を維持しながら取得時間を短縮することを目的としている。
Image-to-image (I2I) 変換はこのタスクに有望なフレームワークを提供する。
本稿では、生成モデル$\unicode{x2013}$具体例として、GAN、拡散モデル、フローマッチング(FM)技術$\unicode{x2013}$ for T1w-to-T2w 2D MRI I2I translationを提案する。
すべてのフレームワークは、同等の設定で実装され、健康な成人の3つの公開MRIデータセットで評価される。
定量的および定性的分析により,GANに基づくPix2Pixモデルは,構造的忠実度,画質,計算効率の点で拡散法やFM法よりも優れていた。
これらの結果は、フローベースのモデルは、小さなデータセットや単純なタスクに過度に適合する傾向があり、GANのパフォーマンスにマッチしたり、超えたりするためにより多くのデータを必要とする可能性があることを示唆している。
これらの知見は、実世界のMRIワークフローにI2I翻訳技術を展開するための実践的なガイダンスを提供し、クロスモーダルな医用画像合成における将来的な研究の方向性を強調している。
コードとモデルはhttps://github.com/AndreaMoschetto/medical-I2I-benchmarkで公開されている。
関連論文リスト
- RadIR: A Scalable Framework for Multi-Grained Medical Image Retrieval via Radiology Report Mining [64.66825253356869]
本稿では,複数の粒度で画像の類似度を決定するために,高密度ラジオロジーレポートを利用した新しい手法を提案する。
我々は、胸部X線用MIMIC-IRとCTスキャン用CTRATE-IRの2つの総合的な医用画像検索データセットを構築した。
RadIR-CXR と Model-ChestCT という2つの検索システムを開発し,従来の画像画像検索と画像レポート検索に優れた性能を示す。
論文 参考訳(メタデータ) (2025-03-06T17:43:03Z) - Domain-Agnostic Stroke Lesion Segmentation Using Physics-Constrained Synthetic Data [0.15749416770494706]
合成定量的MRI(qMRI)画像を生成するための物理制約付きアプローチを2つ導入する。
私たちの最初のメソッドである$textttqATLAS$は、標準的なMPRAGE画像からqMRIマップを推定するためにニューラルネットワークを訓練する。
2番目のメソッドである$textttq Synth$は、組織ラベルから直接qMRIマップを合成する。
論文 参考訳(メタデータ) (2024-12-04T13:52:05Z) - SAM-I2I: Unleash the Power of Segment Anything Model for Medical Image Translation [0.9626666671366836]
SAM-I2Iは,Segment Anything Model 2 (SAM2) に基づく新しい画像から画像への変換フレームワークである。
マルチコントラストMRIデータセットを用いた実験により、SAM-I2Iは最先端の手法より優れており、より効率的かつ正確な医用画像翻訳を提供することが示された。
論文 参考訳(メタデータ) (2024-11-13T03:30:10Z) - A Unified Model for Compressed Sensing MRI Across Undersampling Patterns [69.19631302047569]
様々な計測アンサンプパターンと画像解像度に頑健な統合MRI再構成モデルを提案する。
我々のモデルは、拡散法よりも600$times$高速な推論で、最先端CNN(End-to-End VarNet)の4dBでSSIMを11%改善し、PSNRを4dB改善する。
論文 参考訳(メタデータ) (2024-10-05T20:03:57Z) - NT-ViT: Neural Transcoding Vision Transformers for EEG-to-fMRI Synthesis [7.542742087154667]
本稿ではニューラルトランスビジョントランス(モデル名)を紹介する。
モデル名(英: modelname)は、脳波同時計測(EEG)データから高分解能機能型磁気共鳴イメージング(fMRI)サンプルを推定するために設計された生成モデルである。
論文 参考訳(メタデータ) (2024-09-18T09:38:08Z) - Cross-conditioned Diffusion Model for Medical Image to Image Translation [22.020931436223204]
医用画像から画像への変換のためのクロスコンディショニング拡散モデル(CDM)を提案する。
まず、目的のモダリティの分布をモデル化するためのモダリティ固有表現モデル(MRM)を提案する。
そして、MDN(Modality-Decoupled Diffusion Network)を設計し、MRMから効率よく効果的に分布を学習する。
論文 参考訳(メタデータ) (2024-09-13T02:48:56Z) - On Sensitivity and Robustness of Normalization Schemes to Input
Distribution Shifts in Automatic MR Image Diagnosis [58.634791552376235]
深層学習(DL)モデルは、再構成画像を入力として、複数の疾患の診断において最先端のパフォーマンスを達成した。
DLモデルは、トレーニングとテストフェーズ間の入力データ分布の変化につながるため、さまざまなアーティファクトに敏感である。
本稿では,グループ正規化やレイヤ正規化といった他の正規化手法を用いて,画像のさまざまなアーチファクトに対して,モデル性能にロバスト性を注入することを提案する。
論文 参考訳(メタデータ) (2023-06-23T03:09:03Z) - An Attentive-based Generative Model for Medical Image Synthesis [18.94900480135376]
注意に基づく二重コントラスト生成モデルであるADC-cycleGANを提案する。
このモデルは、二重コントラスト損失項とCycleGAN損失を統合し、合成された画像がソース領域と区別可能であることを保証する。
実験により,提案したADCサイクルGANモデルが,他の最先端生成モデルに匹敵するサンプルを生成することが示された。
論文 参考訳(メタデータ) (2023-06-02T14:17:37Z) - MedSegDiff-V2: Diffusion based Medical Image Segmentation with
Transformer [53.575573940055335]
我々は、MedSegDiff-V2と呼ばれるトランスフォーマーベースの拡散フレームワークを提案する。
画像の異なる20種類の画像分割作業において,その有効性を検証する。
論文 参考訳(メタデータ) (2023-01-19T03:42:36Z) - Model-Guided Multi-Contrast Deep Unfolding Network for MRI
Super-resolution Reconstruction [68.80715727288514]
MRI観察行列を用いて,反復型MGDUNアルゴリズムを新しいモデル誘導深部展開ネットワークに展開する方法を示す。
本稿では,医療画像SR再構成のためのモデルガイド型解釈可能なDeep Unfolding Network(MGDUN)を提案する。
論文 参考訳(メタデータ) (2022-09-15T03:58:30Z) - InDuDoNet+: A Model-Driven Interpretable Dual Domain Network for Metal
Artifact Reduction in CT Images [53.4351366246531]
InDuDoNet+と呼ばれる新しい解釈可能な二重ドメインネットワークを構築し、CT画像の微細な埋め込みを行う。
異なる組織間のCT値を分析し,InDuDoNet+の事前観測ネットワークにマージすることで,その一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-12-23T15:52:37Z) - Modality Completion via Gaussian Process Prior Variational Autoencoders
for Multi-Modal Glioma Segmentation [75.58395328700821]
本稿では,患者スキャンに欠落するサブモダリティを1つ以上のインプットするために,MGP-VAE(Multi-modal Gaussian Process Prior Variational Autoencoder)を提案する。
MGP-VAEは、変分オートエンコーダ(VAE)に先立ってガウス過程(GP)を利用して、被験者/患者およびサブモダリティ相関を利用することができる。
4つのサブモダリティのうち2つ、または3つが欠落している脳腫瘍に対するMGP-VAEの適用性を示す。
論文 参考訳(メタデータ) (2021-07-07T19:06:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。