論文の概要: Magnetic Resonance Image Processing Transformer for General Accelerated Image Reconstruction
- arxiv url: http://arxiv.org/abs/2405.15098v2
- Date: Fri, 07 Feb 2025 21:02:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:26:31.238347
- Title: Magnetic Resonance Image Processing Transformer for General Accelerated Image Reconstruction
- Title(参考訳): 一般高速化画像再構成のための磁気共鳴画像処理変換器
- Authors: Guoyao Shen, Mengyu Li, Stephan Anderson, Chad W. Farris, Xin Zhang,
- Abstract要約: 本稿では, MR-IPT(MR共振画像処理変換器)について紹介する。
MR-IPTは共有トランスフォーマーのバックボーンを活用することで、普遍的な特徴表現を効果的に学習し、多様な再構成タスクを一般化する。
以上の結果から, トランスフォーマーを用いた一般モデルではMRIの再構成が大幅に向上し, 適応性と安定性が向上することが示唆された。
- 参考スコア(独自算出の注目度): 2.7802624923496353
- License:
- Abstract: Recent advancements in deep learning have enabled the development of generalizable models that achieve state-of-the-art performance across various imaging tasks. Vision Transformer (ViT)-based architectures, in particular, have demonstrated strong feature extraction capabilities when pre-trained on large-scale datasets. In this work, we introduce the Magnetic Resonance Image Processing Transformer (MR-IPT), a ViT-based framework designed to enhance the generalizability and robustness of accelerated MRI reconstruction. Unlike conventional deep learning models that require separate training for different acceleration factors, MR-IPT is pre-trained on a large-scale dataset encompassing multiple undersampling patterns and acceleration settings, enabling a unified reconstruction framework. By leveraging a shared transformer backbone, MR-IPT effectively learns universal feature representations, allowing it to generalize across diverse reconstruction tasks. Extensive experiments demonstrate that MR-IPT outperforms both CNN-based and existing transformer-based methods, achieving superior reconstruction quality across varying acceleration factors and sampling masks. Moreover, MR-IPT exhibits strong robustness, maintaining high performance even under unseen acquisition setups, highlighting its potential as a scalable and efficient solution for accelerated MRI. Our findings suggest that transformer-based general models can significantly advance MRI reconstruction, offering improved adaptability and stability compared to traditional deep learning approaches.
- Abstract(参考訳): 近年のディープラーニングの進歩により、様々な画像処理タスクにおける最先端性能を実現する一般化可能なモデルの開発が可能になった。
ビジョントランスフォーマー(ViT)ベースのアーキテクチャは、特に大規模なデータセットで事前トレーニングされた場合、強力な特徴抽出機能を示している。
本研究では, MR-IPT(MR-IPT)を導入し, 高速MRI再構成の一般化性, 堅牢性の向上を図る。
異なるアクセラレーション要因の個別トレーニングを必要とする従来のディープラーニングモデルとは異なり、MR-IPTは、複数のアンダーサンプリングパターンとアクセラレーション設定を含む大規模なデータセットで事前トレーニングされ、統合された再構築フレームワークが実現される。
MR-IPTは共有トランスフォーマーのバックボーンを活用することで、普遍的な特徴表現を効果的に学習し、多様な再構成タスクを一般化する。
MR-IPTはCNN法と既存のトランスフォーマー法の両方より優れており,様々な加速度因子やサンプリングマスクの再現性に優れていた。
さらに、MR-IPTは強力な堅牢性を示し、未確認の取得セットアップでも高い性能を維持し、MRIを高速化するためのスケーラブルで効率的なソリューションとしての可能性を強調している。
以上の結果から, トランスフォーマーを用いた一般モデルではMRIの再構成が大幅に向上し, 適応性と安定性が向上することが示唆された。
関連論文リスト
- STMR: Spiral Transformer for Hand Mesh Reconstruction [11.47314655711821]
本稿では,トランスフォーマーアーキテクチャにスパイラルサンプリングを巧みに統合し,メッシュトポロジを利用したハンドメッシュ再構成の性能向上を実現する。
FreiHANDデータセットの実験では、STMRの最先端性能と非並列推論速度が、同様のバックボーン法と比較された。
論文 参考訳(メタデータ) (2024-07-08T14:05:27Z) - Cross-Modality High-Frequency Transformer for MR Image Super-Resolution [100.50972513285598]
我々はTransformerベースのMR画像超解像フレームワークを構築するための初期の取り組みを構築した。
我々は、高周波構造とモード間コンテキストを含む2つの領域先行について考察する。
我々は,Cross-modality High- frequency Transformer (Cohf-T)と呼ばれる新しいTransformerアーキテクチャを構築し,低解像度画像の超解像化を実現する。
論文 参考訳(メタデータ) (2022-03-29T07:56:55Z) - Transformer-empowered Multi-scale Contextual Matching and Aggregation
for Multi-contrast MRI Super-resolution [55.52779466954026]
マルチコントラスト・スーパーレゾリューション (SR) 再構成により, SR画像の高画質化が期待できる。
既存の手法では、これらの特徴をマッチングし、融合させる効果的なメカニズムが欠如している。
そこで本稿では,トランスフォーマーを利用したマルチスケールコンテキストマッチングとアグリゲーション技術を開発することで,これらの問題を解決する新しいネットワークを提案する。
論文 参考訳(メタデータ) (2022-03-26T01:42:59Z) - Fast MRI Reconstruction: How Powerful Transformers Are? [1.523157765626545]
k空間アンサンプと深層学習に基づく再構成による手法が、スキャンプロセスの高速化のために一般化されている。
特に、高速MRI再構成のために、GAN(Generative Adversarial Network)ベースのSwin Transformer(ST-GAN)を導入した。
異なるアンダーサンプリング条件からのMRI再建には,トランスフォーマーが有効であることを示す。
論文 参考訳(メタデータ) (2022-01-23T23:41:48Z) - ReconFormer: Accelerated MRI Reconstruction Using Recurrent Transformer [60.27951773998535]
本稿では,MRI再構成のためのリカレントトランスモデルである textbfReconFormer を提案する。
高度にアンダーサンプリングされたk空間データから高純度磁気共鳴像を反復的に再構成することができる。
パラメータ効率が向上し,最先端手法よりも大幅に向上したことを示す。
論文 参考訳(メタデータ) (2022-01-23T21:58:19Z) - Reference-based Magnetic Resonance Image Reconstruction Using Texture
Transforme [86.6394254676369]
高速MRI再構成のための新しいテクスチャトランスフォーマーモジュール(TTM)を提案する。
変換器のクエリやキーとしてアンダーサンプルのデータと参照データを定式化する。
提案したTTMは、MRIの再構成手法に積み重ねることで、その性能をさらに向上させることができる。
論文 参考訳(メタデータ) (2021-11-18T03:06:25Z) - Multi-modal Aggregation Network for Fast MR Imaging [85.25000133194762]
我々は,完全サンプル化された補助モダリティから補完表現を発見できる,MANetという新しいマルチモーダル・アグリゲーション・ネットワークを提案する。
我々のMANetでは,完全サンプリングされた補助的およびアンアンサンプされた目標モダリティの表現は,特定のネットワークを介して独立に学習される。
私たちのMANetは、$k$-spaceドメインの周波数信号を同時に回復できるハイブリッドドメイン学習フレームワークに従います。
論文 参考訳(メタデータ) (2021-10-15T13:16:59Z) - Accelerated Multi-Modal MR Imaging with Transformers [92.18406564785329]
MR画像の高速化のためのマルチモーダルトランス(MTrans)を提案する。
トランスアーキテクチャを再構築することで、MTransは深いマルチモーダル情報をキャプチャする強力な能力を得ることができる。
i)MTransはマルチモーダルMRイメージングに改良されたトランスフォーマーを使用する最初の試みであり、CNNベースの手法と比較してよりグローバルな情報を提供する。
論文 参考訳(メタデータ) (2021-06-27T15:01:30Z) - Robust Image Reconstruction with Misaligned Structural Information [0.27074235008521236]
再建と登録を共同で行う変分フレームワークを提案する。
我々のアプローチは、異なるモダリティに対してこれを最初に達成し、再構築と登録の両方の精度で確立されたアプローチを上回ります。
論文 参考訳(メタデータ) (2020-04-01T17:21:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。