論文の概要: A Plug-and-Play Method for Guided Multi-contrast MRI Reconstruction based on Content/Style Modeling
- arxiv url: http://arxiv.org/abs/2409.13477v1
- Date: Fri, 20 Sep 2024 13:08:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 06:53:09.654368
- Title: A Plug-and-Play Method for Guided Multi-contrast MRI Reconstruction based on Content/Style Modeling
- Title(参考訳): コンテンツ・スタイルモデリングに基づくガイド付きマルチコントラストMRI再構成のためのプラグ・アンド・プレイ法
- Authors: Chinmay Rao, Matthias van Osch, Nicola Pezzotti, Jeroen de Bresser, Laurens Beljaards, Jakob Meineke, Elwin de Weerdt, Huangling Lu, Mariya Doneva, Marius Staring,
- Abstract要約: 誘導再建のためのモジュラー2段階手法を提案する。
放射線学的な課題として、MUNITは診断品質における臨床再建よりも33.3%の加速を可能にした。
- 参考スコア(独自算出の注目度): 1.1622133377827824
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Since multiple MRI contrasts of the same anatomy contain redundant information, one contrast can be used as a prior for guiding the reconstruction of an undersampled subsequent contrast. To this end, several learning-based guided reconstruction methods have been proposed. However, two key challenges remain - (a) the requirement of large paired training datasets and (b) the lack of intuitive understanding of the model's internal representation and utilization of the shared information. We propose a modular two-stage approach for guided reconstruction, addressing these challenges. A content/style model of two-contrast image data is learned in a largely unpaired manner and is subsequently applied as a plug-and-play operator in iterative reconstruction. The disentanglement of content and style allows explicit representation of contrast-independent and contrast-specific factors. Based on this, incorporating prior information into the reconstruction reduces to simply replacing the aliased reconstruction content with clean content derived from the reference scan. We name this novel approach PnP-MUNIT. Various aspects like interpretability and convergence are explored via simulations. Furthermore, its practicality is demonstrated on the NYU fastMRI DICOM dataset and two in-house raw datasets, obtaining up to 32.6% more acceleration over learning-based non-guided reconstruction for a given SSIM. In a radiological task, PnP-MUNIT allowed 33.3% more acceleration over clinical reconstruction at diagnostic quality.
- Abstract(参考訳): 同じ解剖学の複数のMRIコントラストには冗長な情報が含まれているため、アンサンプされた後続のコントラストの再構築を導くための先行として、1コントラストが使用できる。
この目的のために,学習に基づく指導的再構築手法が提案されている。
しかし、2つの重要な課題が残っている。
(a)大規模なペアトレーニングデータセットの要件
b) モデルの内部表現の直感的な理解の欠如と共有情報の活用。
本稿では,これらの課題に対処するため,ガイド付き再構築のためのモジュラー2段階アプローチを提案する。
2コントラスト画像データのコンテンツ/スタイルモデルは、ほとんど損なわれない方法で学習され、その後、反復再構成においてプラグ・アンド・プレイ演算子として適用される。
内容とスタイルのアンタングル化は、コントラスト非依存およびコントラスト固有の要因の明示的な表現を可能にする。
これに基づいて、事前情報を再構成に組み込むことにより、エイリアス化された再構成内容と参照スキャンから派生したクリーンコンテンツとを簡易に置き換えることができる。
この手法をPnP-MUNITと呼ぶ。
解釈可能性や収束性といった様々な側面をシミュレーションで調べる。
さらに、その実用性はNYU fastMRI DICOMデータセットと2つの社内生データセットで実証され、与えられたSSIMの学習ベースの非誘導的再構成よりも最大32.6%の高速化が得られる。
放射線学的な課題として、PnP-MUNITは診断品質における臨床再建よりも33.3%の加速を可能にした。
関連論文リスト
- DuDoUniNeXt: Dual-domain unified hybrid model for single and
multi-contrast undersampled MRI reconstruction [24.937435059755288]
そこで我々はDuDoUniNeXtを提案する。DuDoUniNeXtは、不在、低品質、高品質な参照画像を含むシナリオに対応可能な、統合されたデュアルドメインMRI再構成ネットワークである。
実験により,提案モデルが最先端のSCモデルとMCモデルを大幅に上回ることを示した。
論文 参考訳(メタデータ) (2024-03-08T12:26:48Z) - Dual-Domain Multi-Contrast MRI Reconstruction with Synthesis-based
Fusion Network [8.721677700107639]
提案手法は,ディープラーニングに基づくアンダーサンプリング対象コントラストの最適化を容易にする。
本手法は,(1)対象コントラストに類似したデータを基準コントラストから合成すること,(2)マルチコントラストデータを登録してスキャン間運動を低減すること,(3)対象コントラストを再構成するための登録データを活用すること,の3つの重要なステップから構成される。
提案手法は,最先端のアルゴリズムと比較して,最大8倍の加速速度を示す。
論文 参考訳(メタデータ) (2023-12-01T15:40:26Z) - Fill the K-Space and Refine the Image: Prompting for Dynamic and
Multi-Contrast MRI Reconstruction [31.404228406642194]
ダイナミックまたはマルチコントラスト磁気共鳴画像(MRI)再構成の鍵は、フレーム間またはコントラスト間情報を探索することにある。
本稿では,これらの制約に対処する2段階MRI再構成パイプラインを提案する。
提案手法は,従来の高速MRI再建法より有意に優れていた。
論文 参考訳(メタデータ) (2023-09-25T02:51:00Z) - Model-Guided Multi-Contrast Deep Unfolding Network for MRI
Super-resolution Reconstruction [68.80715727288514]
MRI観察行列を用いて,反復型MGDUNアルゴリズムを新しいモデル誘導深部展開ネットワークに展開する方法を示す。
本稿では,医療画像SR再構成のためのモデルガイド型解釈可能なDeep Unfolding Network(MGDUN)を提案する。
論文 参考訳(メタデータ) (2022-09-15T03:58:30Z) - REGAS: REspiratory-GAted Synthesis of Views for Multi-Phase CBCT
Reconstruction from a single 3D CBCT Acquisition [75.64791080418162]
REGASは、アンダーサンプドトモグラフィビューを合成し、再構成画像中のアーティファクトのエイリアスを緩和する自己教師手法を提案する。
高解像度4Dデータ上でのディープニューラルネットワークの大規模なメモリコストに対処するため、REGASは分散して微分可能なフォワードプロジェクションを可能にする新しいレイパス変換(RPT)を導入した。
論文 参考訳(メタデータ) (2022-08-17T03:42:19Z) - Transformer-empowered Multi-scale Contextual Matching and Aggregation
for Multi-contrast MRI Super-resolution [55.52779466954026]
マルチコントラスト・スーパーレゾリューション (SR) 再構成により, SR画像の高画質化が期待できる。
既存の手法では、これらの特徴をマッチングし、融合させる効果的なメカニズムが欠如している。
そこで本稿では,トランスフォーマーを利用したマルチスケールコンテキストマッチングとアグリゲーション技術を開発することで,これらの問題を解決する新しいネットワークを提案する。
論文 参考訳(メタデータ) (2022-03-26T01:42:59Z) - Reference-based Magnetic Resonance Image Reconstruction Using Texture
Transforme [86.6394254676369]
高速MRI再構成のための新しいテクスチャトランスフォーマーモジュール(TTM)を提案する。
変換器のクエリやキーとしてアンダーサンプルのデータと参照データを定式化する。
提案したTTMは、MRIの再構成手法に積み重ねることで、その性能をさらに向上させることができる。
論文 参考訳(メタデータ) (2021-11-18T03:06:25Z) - Exploring Separable Attention for Multi-Contrast MR Image
Super-Resolution [88.16655157395785]
本稿では,SANet という,分離可能なアテンションネットワーク (優先のアテンションと背景分離のアテンションを含む) を提案する。
補助コントラストの助けを借りて、前後方向の前景と背景領域を探索することができる。
これは、補助コントラストを用いて前景と背景領域を予測する分離可能なアテンションメカニズムを探索する最初のモデルである。
論文 参考訳(メタデータ) (2021-09-03T05:53:07Z) - Multi-Modal MRI Reconstruction with Spatial Alignment Network [51.74078260367654]
臨床実践では、複数のコントラストを持つMRIが1つの研究で取得されるのが普通である。
近年の研究では、異なるコントラストやモダリティの冗長性を考慮すると、k空間にアンダーサンプリングされたMRIの目標モダリティは、完全にサンプリングされたシーケンスの助けを借りてよりよく再構成できることが示されている。
本稿では,空間アライメントネットワークと再構成を統合し,再構成対象のモダリティの質を向上させる。
論文 参考訳(メタデータ) (2021-08-12T08:46:35Z) - One Network to Solve Them All: A Sequential Multi-Task Joint Learning
Network Framework for MR Imaging Pipeline [12.684219884940056]
組み合わせたエンドツーエンドのパイプラインを訓練するために、連続的なマルチタスク共同学習ネットワークモデルが提案される。
提案手法は,再構成とセグメント化の両面から,他のSOTA手法よりも優れた性能を示すMBBデータセット上で検証されている。
論文 参考訳(メタデータ) (2021-05-14T05:55:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。