論文の概要: SGSR: Structure-Guided Multi-Contrast MRI Super-Resolution via Spatio-Frequency Co-Query Attention
- arxiv url: http://arxiv.org/abs/2408.03194v1
- Date: Tue, 6 Aug 2024 13:53:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-07 13:58:07.407217
- Title: SGSR: Structure-Guided Multi-Contrast MRI Super-Resolution via Spatio-Frequency Co-Query Attention
- Title(参考訳): SGSR:時空間共問い合わせによる構造誘導型マルチコントラストMRI超解像
- Authors: Shaoming Zheng, Yinsong Wang, Siyi Du, Chen Qin,
- Abstract要約: 高解像度MRIは一般的にスキャン時間を拡張し、モーションアーティファクトを導入する。
MRIの超高解像度化は、これらの課題を軽減するための有望なアプローチとして現れます。
- 参考スコア(独自算出の注目度): 4.898032902660655
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Magnetic Resonance Imaging (MRI) is a leading diagnostic modality for a wide range of exams, where multiple contrast images are often acquired for characterizing different tissues. However, acquiring high-resolution MRI typically extends scan time, which can introduce motion artifacts. Super-resolution of MRI therefore emerges as a promising approach to mitigate these challenges. Earlier studies have investigated the use of multiple contrasts for MRI super-resolution (MCSR), whereas majority of them did not fully exploit the rich contrast-invariant structural information. To fully utilize such crucial prior knowledge of multi-contrast MRI, in this work, we propose a novel structure-guided MCSR (SGSR) framework based on a new spatio-frequency co-query attention (CQA) mechanism. Specifically, CQA performs attention on features of multiple contrasts with a shared structural query, which is particularly designed to extract, fuse, and refine the common structures from different contrasts. We further propose a novel frequency-domain CQA module in addition to the spatial domain, to enable more fine-grained structural refinement. Extensive experiments on fastMRI knee data and low-field brain MRI show that SGSR outperforms state-of-the-art MCSR methods with statistical significance.
- Abstract(参考訳): MRI(Magnetic Resonance Imaging)は、様々な組織を特徴付けるために複数のコントラスト画像が取得される幅広い試験において、主要な診断モダリティである。
しかし、高分解能MRIの取得は通常、スキャン時間を拡張し、モーションアーティファクトを導入することができる。
したがって、MRIの超解像はこれらの課題を軽減するための有望なアプローチとして現れる。
初期の研究では、MRI超解像(MCSR)に多重コントラストを用いることが研究されているが、その大半は、リッチコントラスト不変構造情報を完全に活用していない。
マルチコントラストMRIにおけるそのような重要な事前知識をフル活用するために,我々は,新しい周波数コクエリ・アテンション(CQA)機構に基づく構造誘導MCSR(SGSR)フレームワークを提案する。
特に、CQAは、共通構造を異なるコントラストから抽出し、融合し、洗練するように設計された共有構造クエリと、複数のコントラストの特徴に注意を払っている。
さらに、より微細な構造改善を実現するために、空間領域に加え、新しい周波数領域CQAモジュールを提案する。
高速MRI膝データと低磁場脳MRIの大規模な実験により、SGSRは統計的に有意な最先端のMCSR法より優れていることが示された。
関連論文リスト
- Deep Multi-contrast Cardiac MRI Reconstruction via vSHARP with Auxiliary Refinement Network [7.043932618116216]
本稿では,2次元動的マルチコントラスト,マルチスキーム,マルチアクセラレーションMRIの深層学習に基づく再構成手法を提案する。
提案手法は,半2乗変数分割とADMM最適化を利用した最先端のvSHARPモデルを統合する。
論文 参考訳(メタデータ) (2024-11-02T15:59:35Z) - Towards General Text-guided Image Synthesis for Customized Multimodal Brain MRI Generation [51.28453192441364]
マルチモーダル脳磁気共鳴(MR)イメージングは神経科学や神経学において不可欠である。
現在のMR画像合成アプローチは、通常、特定のタスクのための独立したデータセットで訓練される。
テキスト誘導ユニバーサルMR画像合成モデルであるTUMSynについて述べる。
論文 参考訳(メタデータ) (2024-09-25T11:14:47Z) - McCaD: Multi-Contrast MRI Conditioned, Adaptive Adversarial Diffusion Model for High-Fidelity MRI Synthesis [32.58085563812063]
我々は,高忠実度MRI合成のために複数のコントラストに条件付き逆拡散モデルを活用する新しいフレームワークであるMcCaDを紹介する。
McCaDは、マルチスケールの特徴誘導機構を採用し、デノナイジングとセマンティックエンコーダを組み込むことで、精度を著しく向上させる。
複数のコントラストにまたがって、より本質的な特徴を捉えるために、適応的特徴量減少戦略と空間的特徴量減少戦略が導入された。
論文 参考訳(メタデータ) (2024-09-01T02:40:55Z) - CMRxRecon: An open cardiac MRI dataset for the competition of
accelerated image reconstruction [62.61209705638161]
ディープラーニングベースのCMRイメージングアルゴリズムへの関心が高まっている。
ディープラーニング手法は大規模なトレーニングデータセットを必要とする。
このデータセットには300人の被験者のマルチコントラスト、マルチビュー、マルチスライス、マルチコイルCMRイメージングデータが含まれている。
論文 参考訳(メタデータ) (2023-09-19T15:14:42Z) - K-Space-Aware Cross-Modality Score for Synthesized Neuroimage Quality
Assessment [71.27193056354741]
クロスモダリティな医用画像合成をどう評価するかという問題は、ほとんど解明されていない。
本稿では,この課題の進展を促すため,新しい指標K-CROSSを提案する。
K-CROSSは、トレーニング済みのマルチモードセグメンテーションネットワークを使用して、病変の位置を予測する。
論文 参考訳(メタデータ) (2023-07-10T01:26:48Z) - Dual Arbitrary Scale Super-Resolution for Multi-Contrast MRI [23.50915512118989]
マルチコントラスト超解像 (SR) 再構成により, SR画像の高画質化が期待できる。
放射線技師は、固定スケールではなく任意のスケールでMR画像を拡大することに慣れている。
本稿では,Dual-ArbNetと呼ばれる,暗黙的ニューラル表現に基づくマルチコントラストMRI超解像法を提案する。
論文 参考訳(メタデータ) (2023-07-05T14:43:26Z) - Compound Attention and Neighbor Matching Network for Multi-contrast MRI
Super-resolution [7.197850827700436]
MRIのマルチコントラスト超解像は、シングルイメージ超解像よりも優れた結果が得られる。
マルチコントラストMRI SRのための合成アテンションと近接マッチング(CANM-Net)を備えた新しいネットワークアーキテクチャを提案する。
CANM-Netは、ふりかえりと将来の実験において最先端のアプローチより優れている。
論文 参考訳(メタデータ) (2023-07-05T09:44:02Z) - Model-Guided Multi-Contrast Deep Unfolding Network for MRI
Super-resolution Reconstruction [68.80715727288514]
MRI観察行列を用いて,反復型MGDUNアルゴリズムを新しいモデル誘導深部展開ネットワークに展開する方法を示す。
本稿では,医療画像SR再構成のためのモデルガイド型解釈可能なDeep Unfolding Network(MGDUN)を提案する。
論文 参考訳(メタデータ) (2022-09-15T03:58:30Z) - Transformer-empowered Multi-scale Contextual Matching and Aggregation
for Multi-contrast MRI Super-resolution [55.52779466954026]
マルチコントラスト・スーパーレゾリューション (SR) 再構成により, SR画像の高画質化が期待できる。
既存の手法では、これらの特徴をマッチングし、融合させる効果的なメカニズムが欠如している。
そこで本稿では,トランスフォーマーを利用したマルチスケールコンテキストマッチングとアグリゲーション技術を開発することで,これらの問題を解決する新しいネットワークを提案する。
論文 参考訳(メタデータ) (2022-03-26T01:42:59Z) - Multi-modal Aggregation Network for Fast MR Imaging [85.25000133194762]
我々は,完全サンプル化された補助モダリティから補完表現を発見できる,MANetという新しいマルチモーダル・アグリゲーション・ネットワークを提案する。
我々のMANetでは,完全サンプリングされた補助的およびアンアンサンプされた目標モダリティの表現は,特定のネットワークを介して独立に学習される。
私たちのMANetは、$k$-spaceドメインの周波数信号を同時に回復できるハイブリッドドメイン学習フレームワークに従います。
論文 参考訳(メタデータ) (2021-10-15T13:16:59Z) - Fine-grained MRI Reconstruction using Attentive Selection Generative
Adversarial Networks [0.0]
高品質mri再構成を実現するための新しい注意に基づく深層学習フレームワークを提案する。
我々は,gan(generative adversarial network)フレームワークに大規模文脈的特徴統合と注意選択を組み込んだ。
論文 参考訳(メタデータ) (2021-03-13T09:58:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。