論文の概要: CAMP-Net: Context-Aware Multi-Prior Network for Accelerated MRI
Reconstruction
- arxiv url: http://arxiv.org/abs/2306.11238v1
- Date: Tue, 20 Jun 2023 02:21:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-21 16:03:15.377125
- Title: CAMP-Net: Context-Aware Multi-Prior Network for Accelerated MRI
Reconstruction
- Title(参考訳): CAMP-Net:加速MRI再構成のためのコンテキスト対応マルチピアネットワーク
- Authors: Liping Zhang, Xiaobo Li, and Weitian Chen
- Abstract要約: 本稿では,MRI再構成のための新しいコンテキスト対応マルチプライアネットワーク(CAMP-Net)を提案する。
画像強調、k空間復元、キャリブレーション整合性の3つのインターリーブモジュールが組み込まれている。
CAMP-Netは、復元品質と量的T$マッピングの点で最先端の手法より優れている。
- 参考スコア(独自算出の注目度): 3.4754314910585626
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite promising advances in deep learning-based MRI reconstruction methods,
restoring high-frequency image details and textures remains a challenging
problem for accelerated MRI. To tackle this challenge, we propose a novel
context-aware multi-prior network (CAMP-Net) for MRI reconstruction. CAMP-Net
leverages the complementary nature of multiple prior knowledge and explores
data redundancy between adjacent slices in the hybrid domain to improve image
quality. It incorporates three interleaved modules respectively for image
enhancement, k-space restoration, and calibration consistency to jointly learn
context-aware multiple priors in an end-to-end fashion. The image enhancement
module learns a coil-combined image prior to suppress noise-like artifacts,
while the k-space restoration module explores multi-coil k-space correlations
to recover high-frequency details. The calibration consistency module embeds
the known physical properties of MRI acquisition to ensure consistency of
k-space correlations extracted from measurements and the artifact-free image
intermediate. The resulting low- and high-frequency reconstructions are
hierarchically aggregated in a frequency fusion module and iteratively refined
to progressively reconstruct the final image. We evaluated the generalizability
and robustness of our method on three large public datasets with various
accelerations and sampling patterns. Comprehensive experiments demonstrate that
CAMP-Net outperforms state-of-the-art methods in terms of reconstruction
quality and quantitative $T_2$ mapping.
- Abstract(参考訳): 深層学習に基づくMRI再構成法が期待できる進歩にもかかわらず、高周波画像の詳細とテクスチャの復元は、加速MRIにとって難しい問題である。
そこで我々は,MRI再構成のための新しいコンテキスト対応マルチプライアネットワーク(CAMP-Net)を提案する。
CAMP-Netは、複数の先行知識の相補的な性質を活用し、画像品質を改善するために、ハイブリッド領域内の隣接スライス間のデータ冗長性を探る。
画像強調、k空間復元、キャリブレーション整合性の3つのインターリーブモジュールをそれぞれ組み込んで、コンテキスト対応の複数先行をエンドツーエンドで学習する。
画像強調モジュールはノイズのようなアーティファクトを抑制する前にコイル結合画像を学習し、k空間復元モジュールはマルチコイルk空間相関を探索して高周波詳細を復元する。
キャリブレーション整合モジュールは、MRI取得の既知の物理的特性を埋め込んで、測定から抽出したk空間相関とアーチファクトフリー画像中間体の整合性を確保する。
その結果、低周波数および高周波の再構成は階層的に周波数融合モジュールに集約され、反復的に洗練され、最終的な画像を漸進的に再構成する。
種々の加速度とサンプリングパターンを持つ3つの大規模公開データセットに対して,本手法の一般化性とロバスト性を評価した。
総合的な実験により、CAMP-Netは再構築品質と定量的なT_2$マッピングの点で最先端の手法より優れていることが示された。
関連論文リスト
- InterLCM: Low-Quality Images as Intermediate States of Latent Consistency Models for Effective Blind Face Restoration [106.70903819362402]
拡散前駆体は、低画質画像の復元のために、復元データセットの微細調整拡散モデル(DM)によってブラインドフェイス復元(BFR)に使用されている。
我々は,その優れたセマンティック一貫性と効率のために潜在一貫性モデル(LCM)を活用するために,InterLCMを提案する。
InterLCMは、合成データセットと実世界のデータセットの両方において既存のアプローチより優れており、推論速度も高速である。
論文 参考訳(メタデータ) (2025-02-04T10:51:20Z) - ContextMRI: Enhancing Compressed Sensing MRI through Metadata Conditioning [51.26601171361753]
本稿では, 微細なメタデータを再構成プロセスに統合したMRI用テキスト条件拡散モデルであるContextMRIを提案する。
メタデータの忠実度はスライス位置やコントラストから患者年齢、性別、病理まで増加し、体系的に再構築性能が向上することを示す。
論文 参考訳(メタデータ) (2025-01-08T05:15:43Z) - Re-Visible Dual-Domain Self-Supervised Deep Unfolding Network for MRI Reconstruction [48.30341580103962]
本稿では、これらの問題に対処するために、新しい再視覚的二重ドメイン自己教師型深層展開ネットワークを提案する。
エンド・ツー・エンドの再構築を実現するために,シャンブルとポック・プロキシ・ポイント・アルゴリズム(DUN-CP-PPA)に基づく深層展開ネットワークを設計する。
高速MRIおよびIXIデータセットを用いて行った実験により,本手法は再建性能において最先端の手法よりも有意に優れていることが示された。
論文 参考訳(メタデータ) (2025-01-07T12:29:32Z) - Multi-scale Restoration of Missing Data in Optical Time-series Images with Masked Spatial-Temporal Attention Network [0.6675733925327885]
リモートセンシング画像に欠落した値を出力する既存の方法は、補助情報を完全に活用できない。
本稿では,時系列リモートセンシング画像の再構成のためのMS2という,深層学習に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2024-06-19T09:05:05Z) - Generalized Implicit Neural Representation for Efficient MRI Parallel Imaging Reconstruction [16.63720411275398]
本研究では、MRI PI再構成のための一般化暗黙的神経表現(INR)に基づくフレームワークを提案する。
フレームワークのINRモデルは、完全にサンプリングされたMR画像を空間座標と以前のボクセル固有の特徴の連続関数として扱う。
公開されているMRIデータセットの実験は、複数の加速度因子で画像を再構成する際の提案手法の優れた性能を示す。
論文 参考訳(メタデータ) (2023-09-12T09:07:03Z) - Specificity-Preserving Federated Learning for MR Image Reconstruction [94.58912814426122]
統合学習は、磁気共鳴(MR)画像再構成におけるデータのプライバシーと効率を改善するために使用できる。
近年のFL技術は、グローバルモデルの一般化を強化することで、この問題を解決する傾向にある。
MR画像再構成のための特異性保存FLアルゴリズム(FedMRI)を提案する。
論文 参考訳(メタデータ) (2021-12-09T22:13:35Z) - Reference-based Magnetic Resonance Image Reconstruction Using Texture
Transforme [86.6394254676369]
高速MRI再構成のための新しいテクスチャトランスフォーマーモジュール(TTM)を提案する。
変換器のクエリやキーとしてアンダーサンプルのデータと参照データを定式化する。
提案したTTMは、MRIの再構成手法に積み重ねることで、その性能をさらに向上させることができる。
論文 参考訳(メタデータ) (2021-11-18T03:06:25Z) - Unsupervised MRI Reconstruction via Zero-Shot Learned Adversarial
Transformers [0.0]
Zero-Shot Learned Adrial Transformers (SLATER) を用いた新しい非監視MRI再構成法を提案する。
アンダーサンプルテストデータ上でゼロショット再構成を行い、ネットワークパラメータを最適化して推論を行います。
脳MRIデータセットの実験は、いくつかの最先端の教師なし手法に対してSLATERの優れた性能を明らかに示している。
論文 参考訳(メタデータ) (2021-05-15T02:01:21Z) - Multi-institutional Collaborations for Improving Deep Learning-based
Magnetic Resonance Image Reconstruction Using Federated Learning [62.17532253489087]
深層学習法はmr画像再構成において優れた性能をもたらすことが示されている。
これらの方法は、高い取得コストと医療データプライバシー規制のために収集および共有が困難である大量のデータを必要とします。
我々は,異なる施設で利用可能なmrデータを活用し,患者のプライバシーを保ちながら,連合学習(fl)ベースのソリューションを提案する。
論文 参考訳(メタデータ) (2021-03-03T03:04:40Z) - Joint Frequency and Image Space Learning for MRI Reconstruction and
Analysis [7.821429746599738]
本稿では、周波数空間データから再構成するための汎用的なビルディングブロックとして、周波数と画像の特徴表現を明示的に組み合わせたニューラルネットワーク層が利用できることを示す。
提案した共同学習方式により、周波数空間に固有のアーティファクトの補正と画像空間表現の操作を両立させ、ネットワークのすべての層でコヒーレントな画像構造を再構築することができる。
論文 参考訳(メタデータ) (2020-07-02T23:54:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。