論文の概要: q3-MuPa: Quick, Quiet, Quantitative Multi-Parametric MRI using Physics-Informed Diffusion Models
- arxiv url: http://arxiv.org/abs/2512.23726v1
- Date: Fri, 19 Dec 2025 08:44:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-04 08:45:17.123568
- Title: q3-MuPa: Quick, Quiet, Quantitative Multi-Parametric MRI using Physics-Informed Diffusion Models
- Title(参考訳): q3-MuPa:物理インフォームド拡散モデルを用いたクイック,クイック,定量マルチパラメトリックMRI
- Authors: Shishuai Wang, Florian Wiesinger, Noemi Sgambelluri, Carolin Pirkl, Stefan Klein, Juan A. Hernandez-Tamames, Dirk H. J. Poot,
- Abstract要約: ゼロエコー時間(MuPa-ZTE)を用いた3次元高速サイレントマルチパラメトリックマッピングは,新しい定量的MRI(qMRI)取得法である。
MuPa-ZTEは、取得した重み付き画像系列を用いて、T1、T2、および陽子密度の定量的マップを生成する。
本稿では,深部生成モデルと物理に基づくデータの一貫性を両立させる拡散モデルに基づくqMRIマッピング手法を提案する。
- 参考スコア(独自算出の注目度): 0.4343086297016318
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The 3D fast silent multi-parametric mapping sequence with zero echo time (MuPa-ZTE) is a novel quantitative MRI (qMRI) acquisition that enables nearly silent scanning by using a 3D phyllotaxis sampling scheme. MuPa-ZTE improves patient comfort and motion robustness, and generates quantitative maps of T1, T2, and proton density using the acquired weighted image series. In this work, we propose a diffusion model-based qMRI mapping method that leverages both a deep generative model and physics-based data consistency to further improve the mapping performance. Furthermore, our method enables additional acquisition acceleration, allowing high-quality qMRI mapping from a fourfold-accelerated MuPa-ZTE scan (approximately 1 minute). Specifically, we trained a denoising diffusion probabilistic model (DDPM) to map MuPa-ZTE image series to qMRI maps, and we incorporated the MuPa-ZTE forward signal model as an explicit data consistency (DC) constraint during inference. We compared our mapping method against a baseline dictionary matching approach and a purely data-driven diffusion model. The diffusion models were trained entirely on synthetic data generated from digital brain phantoms, eliminating the need for large real-scan datasets. We evaluated on synthetic data, a NISM/ISMRM phantom, healthy volunteers, and a patient with brain metastases. The results demonstrated that our method produces 3D qMRI maps with high accuracy, reduced noise and better preservation of structural details. Notably, it generalised well to real scans despite training on synthetic data alone. The combination of the MuPa-ZTE acquisition and our physics-informed diffusion model is termed q3-MuPa, a quick, quiet, and quantitative multi-parametric mapping framework, and our findings highlight its strong clinical potential.
- Abstract(参考訳): ゼロエコー時間(MuPa-ZTE)を持つ3次元高速サイレントマルチパラメトリックマッピングシーケンスは、3Dフィロタキシャルサンプリングスキームを用いて、ほぼサイレントスキャンを可能にする新しい定量的MRI(qMRI)取得である。
MuPa-ZTEは、患者の快適性と動きの堅牢性を改善し、取得した重み付き画像系列を用いて、T1、T2、および陽子密度の定量的マップを生成する。
本研究では, 深部生成モデルと物理データ一貫性を両立させる拡散モデルに基づくqMRIマッピング手法を提案する。
さらに,MuPa-ZTEスキャン(約1分)から高画質のqMRIマッピングを可能にする。
具体的には,MuPa-ZTE画像系列をqMRIマップにマッピングする拡散確率モデル(DDPM)を訓練し,MuPa-ZTE前方信号モデルを推論中に明示的なデータ一貫性(DC)制約として組み込んだ。
提案手法を,ベースライン辞書マッチング手法と純粋にデータ駆動拡散モデルと比較した。
拡散モデルは完全にデジタル脳ファントムから生成された合成データに基づいて訓練され、大規模な実スキャンデータセットは不要になった。
人工データ,NISM/ISMRMファントム,健常者,脳転移症例について検討した。
その結果,3次元qMRIマップを高精度に作成し,ノイズを低減し,構造情報の保存性が向上した。
特に、合成データのみのトレーニングにもかかわらず、実際のスキャンをうまく一般化した。
MuPa-ZTEの獲得と物理インフォームド拡散モデルの組み合わせはq3-MuPaと呼ばれ、迅速で静かで定量的なマルチパラメトリックマッピングフレームワークであり、その強力な臨床応用の可能性を強調している。
関連論文リスト
- Accelerating 3D Photoacoustic Computed Tomography with End-to-End Physics-Aware Neural Operators [74.65171736966131]
光音響計算トモグラフィ(PACT)は、光コントラストと超音波分解能を組み合わせることで、光拡散限界を超える深部像を実現する。
現在の実装では、高密度トランスデューサアレイと長い取得時間を必要とし、臨床翻訳を制限している。
本研究では,センサ計測からボリューム再構成まで,逆音響マッピングを直接学習する物理認識モデルであるPanoを紹介する。
論文 参考訳(メタデータ) (2025-09-11T23:12:55Z) - A Physics-Driven Neural Network with Parameter Embedding for Generating Quantitative MR Maps from Weighted Images [25.060349614170953]
臨床重み付きMRIによる定量的画像合成の精度と一般化性を改善するために,MRIシーケンスパラメータを統合する深層学習に基づくアプローチを提案する。
物理駆動型ニューラルネットワークは、パラメータ埋め込みを介してMRIシーケンスパラメータを直接モデルに埋め込む。
論文 参考訳(メタデータ) (2025-08-11T16:01:12Z) - Diffusion Bridge Models for 3D Medical Image Translation [15.751276389741877]
本稿では,T1w MRIとDTIモダリティ間の3次元脳画像変換のための拡散ブリッジモデルを提案する。
我々のモデルは、T1w画像から高品質なDTI分画異方性画像を生成することを学習し、その逆も実現し、モダリティデータの増大を可能にする。
論文 参考訳(メタデータ) (2025-04-21T17:49:06Z) - MRI Parameter Mapping via Gaussian Mixture VAE: Breaking the Assumption of Independent Pixels [3.720246718519987]
我々はMRIにおける定量的パラメータマッピングの新しいパラダイムを導入し、実証する。
独立画素の仮定を破る自己教師型深部変分法を提案する。
そこで本手法は,dMRIやqMRIなどのパラメータマッピング手法の臨床応用を支援することができる。
論文 参考訳(メタデータ) (2024-11-16T11:11:36Z) - A Unified Model for Compressed Sensing MRI Across Undersampling Patterns [69.19631302047569]
様々な計測アンサンプパターンと画像解像度に頑健な統合MRI再構成モデルを提案する。
我々のモデルは、拡散法よりも600$times$高速な推論で、最先端CNN(End-to-End VarNet)の4dBでSSIMを11%改善し、PSNRを4dB改善する。
論文 参考訳(メタデータ) (2024-10-05T20:03:57Z) - Coordinate-Based Neural Representation Enabling Zero-Shot Learning for 3D Multiparametric Quantitative MRI [4.707353256136099]
我々は,同時マルチパラメトリックqMRIのためのデータ取得と教師なし再構成を含む,革新的なイメージング手法であるSUMMITを提案する。
qMRI再構成のための教師なしアプローチは、様々な医用画像モダリティに適用可能な、新しいゼロショット学習パラダイムも導入する。
論文 参考訳(メタデータ) (2024-10-02T14:13:06Z) - qMRI Diffuser: Quantitative T1 Mapping of the Brain using a Denoising Diffusion Probabilistic Model [1.1278063431495107]
定量的MRI(qMRI)は、組織特性に関連する客観的パラメータを提供することにより、重み付け画像よりも大きな利点を提供する。
深層学習に基づく手法は、一連の重み付き画像から定量的マップを推定する効果を実証している。
深部生成モデルを用いたqMRIの新しい手法であるqMRIディフューザを提案する。
論文 参考訳(メタデータ) (2024-07-23T13:49:19Z) - Optimizing Sampling Patterns for Compressed Sensing MRI with Diffusion
Generative Models [75.52575380824051]
圧縮センシングマルチコイルMRIにおけるサブサンプリングパターンを最適化する学習手法を提案する。
拡散モデルとMRI計測プロセスにより得られた後部平均推定値に基づいて1段階の再構成を行う。
本手法では,効果的なサンプリングパターンの学習には5つのトレーニング画像が必要である。
論文 参考訳(メタデータ) (2023-06-05T22:09:06Z) - Multifold Acceleration of Diffusion MRI via Slice-Interleaved Diffusion
Encoding (SIDE) [50.65891535040752]
本稿では,Slice-Interleaved Diffusionと呼ばれる拡散符号化方式を提案する。
SIDEは、拡散重み付き(DW)画像ボリュームを異なる拡散勾配で符号化したスライスでインターリーブする。
また,高いスライスアンサンプデータからDW画像を効果的に再構成するためのディープラーニングに基づく手法を提案する。
論文 参考訳(メタデータ) (2020-02-25T14:48:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。