論文の概要: MRI2Qmap: multi-parametric quantitative mapping with MRI-driven denoising priors
- arxiv url: http://arxiv.org/abs/2603.11316v1
- Date: Wed, 11 Mar 2026 21:23:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:25.651867
- Title: MRI2Qmap: multi-parametric quantitative mapping with MRI-driven denoising priors
- Title(参考訳): MRI2Qmap:MRI駆動型 denoising priors を用いたマルチパラメトリック定量的マッピング
- Authors: Mohammad Golbabaee, Matteo Cencini, Carolin Pirkl, Marion Menzel, Michela Tosetti, Bjoern Menze,
- Abstract要約: プラグアンドプレイの定量的再構成フレームワークであるMRI2Qmapを紹介する。
物理取得モデルと、大規模なマルチモーダル重み付きMRIデータセットで事前訓練されたディープ・デノナイズ・オートエンコーダから学んだ事前情報を統合する。
提案手法は,in-vivo およびsimulated acquisitions から高高速化された3次元脳内MRFデータに対して検証を行った。
- 参考スコア(独自算出の注目度): 0.0280162601599316
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Magnetic Resonance Fingerprinting (MRF) and other highly accelerated transient-state parameter mapping techniques enable simultaneous quantification of multiple tissue properties, but often suffer from aliasing artifacts due to compressed sampling. Incorporating spatial image priors can mitigate these artifacts, and deep learning has shown strong potential when large training datasets are available. However, extending this paradigm to MRF-type sequences remains challenging due to the scarcity of quantitative imaging data for training. Can this limitation be overcome by leveraging sources of training data from clinically-routine weighted MRI images? To this end, we introduce MRI2Qmap, a plug-and-play quantitative reconstruction framework that integrates the physical acquisition model with priors learned from deep denoising autoencoders pretrained on large multimodal weighted-MRI datasets. MRI2Qmap demonstrates that spatial-domain structural priors learned from independently acquired datasets of routine weighted-MRI images can be effectively used for quantitative MRI reconstruction. The proposed method is validated on highly accelerated 3D whole-brain MRF data from both in-vivo and simulated acquisitions, achieving competitive or superior performance relative to existing baselines without requiring ground-truth quantitative imaging data for training. By decoupling quantitative reconstruction from the need for ground-truth MRF training data, this framework points toward a scalable paradigm for quantitative MRI that can capitalize on the large and growing repositories of routine clinical MRI.
- Abstract(参考訳): 磁気共鳴フィンガープリント(MRF)や他の高度に加速された過渡状態パラメータマッピング技術は、複数の組織特性の同時定量化を可能にするが、しばしば圧縮サンプリングによるアーティファクトのエイリアス化に悩まされる。
空間画像の事前を組み込むことで、これらのアーティファクトを緩和することができる。
しかし、このパラダイムをMRF型シーケンスに拡張することは、トレーニング用定量的イメージングデータの不足のため、依然として困難である。
この制限は、臨床修整強調MRI画像のトレーニングデータソースを活用することで克服できるのだろうか?
この目的のために,大規模なマルチモーダル重み付きMRIデータセットで事前学習したディープ・デノイング・オートエンコーダから学習した先行情報と物理取得モデルを統合した,プラグアンドプレイの定量的再構成フレームワークであるMRI2Qmapを導入する。
MRI2Qmapは、日常的な重み付きMRI画像の独立に取得したデータセットから得られた空間領域構造的先行情報を定量的MRI再構成に効果的に利用できることを示した。
提案手法は,既存のベースラインに対する競争力や優れた性能を,トレーニングに地中画像データを必要とすることなく実現し,高速な3次元脳内MRFデータに対して検証した。
この枠組みは, 定量的MRIのためのスケーラブルなパラダイムを目指しており, 日常的な臨床MRIの大規模かつ増大するリポジトリを活用できる。
関連論文リスト
- Physics-Driven 3D Gaussian Rendering for Zero-Shot MRI Super-Resolution [13.552352258334908]
高分解能MRI(High- resolution Magnetic Resonance Imaging)は臨床診断に欠かせないが、長い取得時間と運動アーチファクトによって制限される。
超解像(SR)は低分解能スキャンを高分解能画像に再構成するが、既存の手法は相互に制約される。
データ要求と効率のバランスをとるために,明示的なガウス表現を用いたゼロショットMRI SRフレームワークを提案する。
論文 参考訳(メタデータ) (2026-03-10T13:00:42Z) - Adapting HFMCA to Graph Data: Self-Supervised Learning for Generalizable fMRI Representations [57.054499278843856]
機能的磁気共鳴画像(fMRI)解析は、データセットのサイズが限られ、研究間でのドメインの変動が原因で大きな課題に直面している。
コンピュータビジョンにインスパイアされた従来の自己教師付き学習手法は、正と負のサンプルペアに依存することが多い。
本稿では,最近開発された階層関数最大相関アルゴリズム(HFMCA)をグラフ構造fMRIデータに適用することを提案する。
論文 参考訳(メタデータ) (2025-10-05T12:35:01Z) - Patch-Based Diffusion for Data-Efficient, Radiologist-Preferred MRI Reconstruction [30.203473273516895]
パッチベースの拡散モデルでは、小さな実数値データセットよりも効果的なデータ駆動の事前学習が期待できる。
本研究では,25k領域の画像の小さなデータセットでトレーニングしたPaDIS-MRIモデルが,画像品質の指標でFastMRI-EDMより優れていることを示す。
論文 参考訳(メタデータ) (2025-09-25T20:18:56Z) - ContextMRI: Enhancing Compressed Sensing MRI through Metadata Conditioning [51.26601171361753]
本稿では, 微細なメタデータを再構成プロセスに統合したMRI用テキスト条件拡散モデルであるContextMRIを提案する。
メタデータの忠実度はスライス位置やコントラストから患者年齢、性別、病理まで増加し、体系的に再構築性能が向上することを示す。
論文 参考訳(メタデータ) (2025-01-08T05:15:43Z) - Coordinate-Based Neural Representation Enabling Zero-Shot Learning for 3D Multiparametric Quantitative MRI [4.707353256136099]
我々は,同時マルチパラメトリックqMRIのためのデータ取得と教師なし再構成を含む,革新的なイメージング手法であるSUMMITを提案する。
qMRI再構成のための教師なしアプローチは、様々な医用画像モダリティに適用可能な、新しいゼロショット学習パラダイムも導入する。
論文 参考訳(メタデータ) (2024-10-02T14:13:06Z) - NeuroPictor: Refining fMRI-to-Image Reconstruction via Multi-individual Pretraining and Multi-level Modulation [55.51412454263856]
本稿では,fMRI信号を用いた拡散モデル生成過程を直接変調することを提案する。
様々な個人から約67,000 fMRI-imageペアのトレーニングを行うことで,fMRI-to-imageデコーディング能力に優れたモデルが得られた。
論文 参考訳(メタデータ) (2024-03-27T02:42:52Z) - NeRF Solves Undersampled MRI Reconstruction [1.3597551064547502]
本稿では,Neural Radiance Field(NeRF)の概念を利用したMRI技術について述べる。
ラジアルアンダーサンプリングにより、対応する撮像問題をスパースビューレンダリングデータから画像モデリングタスクに再構成することができる。
空間座標から画像強度を出力する多層パーセプトロンは、所定の測定データと所望の画像との間のMR物理駆動レンダリング関係を学習する。
論文 参考訳(メタデータ) (2024-02-20T18:37:42Z) - IMJENSE: Scan-specific Implicit Representation for Joint Coil
Sensitivity and Image Estimation in Parallel MRI [11.159664312706704]
IMJENSEは、並列MRI再構成を改善するためのスキャン特異的暗黙の神経表現に基づく方法である。
IMJENSEは、MRI画像とコイル感度の強力な連続表現と共同推定により、従来の画像やk空間領域再構成アルゴリズムよりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2023-11-21T07:24:11Z) - CMRxRecon: An open cardiac MRI dataset for the competition of
accelerated image reconstruction [62.61209705638161]
ディープラーニングベースのCMRイメージングアルゴリズムへの関心が高まっている。
ディープラーニング手法は大規模なトレーニングデータセットを必要とする。
このデータセットには300人の被験者のマルチコントラスト、マルチビュー、マルチスライス、マルチコイルCMRイメージングデータが含まれている。
論文 参考訳(メタデータ) (2023-09-19T15:14:42Z) - Reference-based Magnetic Resonance Image Reconstruction Using Texture
Transforme [86.6394254676369]
高速MRI再構成のための新しいテクスチャトランスフォーマーモジュール(TTM)を提案する。
変換器のクエリやキーとしてアンダーサンプルのデータと参照データを定式化する。
提案したTTMは、MRIの再構成手法に積み重ねることで、その性能をさらに向上させることができる。
論文 参考訳(メタデータ) (2021-11-18T03:06:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。