論文の概要: MMR-Mamba: Multi-Contrast MRI Reconstruction with Mamba and Spatial-Frequency Information Fusion
- arxiv url: http://arxiv.org/abs/2406.18950v1
- Date: Thu, 27 Jun 2024 07:30:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-28 14:57:01.156372
- Title: MMR-Mamba: Multi-Contrast MRI Reconstruction with Mamba and Spatial-Frequency Information Fusion
- Title(参考訳): MMR-Mamba:mambaと空間周波数情報融合を用いたマルチコントラストMRI再構成
- Authors: Jing Zou, Lanqing Liu, Qi Chen, Shujun Wang, Xiaohan Xing, Jing Qin,
- Abstract要約: マルチコントラスト特徴の包括的統合を実現する新しいフレームワークであるMMR-Mambaと空間周波数情報融合を提案する。
BraTSおよび高速MRI膝関節データセットの実験は、最先端MRI再建法よりも提案したMR-Mambaの方が優れていることを示す。
- 参考スコア(独自算出の注目度): 17.22293918749487
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-contrast MRI acceleration has become prevalent in MR imaging, enabling the reconstruction of high-quality MR images from under-sampled k-space data of the target modality, using guidance from a fully-sampled auxiliary modality. The main crux lies in efficiently and comprehensively integrating complementary information from the auxiliary modality. Existing methods either suffer from quadratic computational complexity or fail to capture long-range correlated features comprehensively. In this work, we propose MMR-Mamba, a novel framework that achieves comprehensive integration of multi-contrast features through Mamba and spatial-frequency information fusion. Firstly, we design the \textit{Target modality-guided Cross Mamba} (TCM) module in the spatial domain, which maximally restores the target modality information by selectively absorbing useful information from the auxiliary modality. Secondly, leveraging global properties of the Fourier domain, we introduce the \textit{Selective Frequency Fusion} (SFF) module to efficiently integrate global information in the frequency domain and recover high-frequency signals for the reconstruction of structure details. Additionally, we present the \textit{Adaptive Spatial-Frequency Fusion} (ASFF) module, which enhances fused features by supplementing less informative features from one domain with corresponding features from the other domain. These innovative strategies ensure efficient feature fusion across spatial and frequency domains, avoiding the introduction of redundant information and facilitating the reconstruction of high-quality target images. Extensive experiments on the BraTS and fastMRI knee datasets demonstrate the superiority of the proposed MMR-Mamba over state-of-the-art MRI reconstruction methods.
- Abstract(参考訳): MR画像ではマルチコントラストMRIの加速度が主流となり, 対象モードのアンダーサンプリングk空間データから, 完全サンプリング補助モードからのガイダンスを用いて, 高品質MR画像の再構成が可能になった。
主くちばしは、補助モダリティからの補完的な情報を効率的かつ包括的に統合することにある。
既存の手法は2次計算の複雑さに悩まされるか、長い範囲の相関した特徴を包括的に捉えられないかのいずれかである。
本研究では,Mambaと空間周波数情報融合によるマルチコントラスト特徴の包括的統合を実現する新しいフレームワークであるMMR-Mambaを提案する。
まず,空間領域におけるTCM (textit{Target modality-guided Cross Mamba}) モジュールを設計し,補助モダリティから有用な情報を選択的に吸収することにより,目的のモダリティ情報を最大に復元する。
次に、フーリエ領域のグローバルな特性を活用して、周波数領域のグローバルな情報を効率的に統合し、構造詳細を復元するための高周波信号の復元を行うための「textit{Selective Frequency Fusion} (SFF)」モジュールを導入する。
さらに,他の領域の特徴を補うことで,融合した特徴を補うことによって拡張する,ASFF(textit{Adaptive Spatial-Frequency Fusion)モジュールを提案する。
これらの革新的な戦略は、空間領域と周波数領域をまたいだ効率的な特徴融合を保証し、冗長な情報の導入を回避し、高品質なターゲット画像の再構成を容易にする。
BraTSおよび高速MRI膝関節データセットの大規模な実験は、最先端MRI再建法よりも提案したMR-Mambaの方が優れていることを示した。
関連論文リスト
- Zero-shot Dynamic MRI Reconstruction with Global-to-local Diffusion Model [17.375064910924717]
本稿では,Glob-al-to-local Diffusion Model(Glob-al-to-local Diffusion Model)と呼ばれる時間インターリーブ取得方式に基づく動的MRI再構成手法を提案する。
提案手法は, 騒音の低減と保存の両面において良好に機能し, 教師付き手法に匹敵する再現性を実現する。
論文 参考訳(メタデータ) (2024-11-06T07:40:27Z) - Accelerated Multi-Contrast MRI Reconstruction via Frequency and Spatial Mutual Learning [50.74383395813782]
本稿では,周波数・空間相互学習ネットワーク(FSMNet)を提案する。
提案したFSMNetは, 加速度係数の異なるマルチコントラストMR再構成タスクに対して, 最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-09-21T12:02:47Z) - Frequency-Assisted Mamba for Remote Sensing Image Super-Resolution [49.902047563260496]
我々は、リモートセンシング画像(RSI)の超高解像度化のために、視覚状態空間モデル(Mamba)を統合するための最初の試みを開発した。
より優れたSR再構築を実現するため,FMSRと呼ばれる周波数支援型Mambaフレームワークを考案した。
我々のFMSRは、周波数選択モジュール(FSM)、ビジョン状態空間モジュール(VSSM)、ハイブリッドゲートモジュール(HGM)を備えた多層融合アーキテクチャを備えている。
論文 参考訳(メタデータ) (2024-05-08T11:09:24Z) - Enhancing Automatic Modulation Recognition through Robust Global Feature
Extraction [12.868218616042292]
変調信号は長時間の時間依存性を示す。
人間の専門家は星座図のパターンを分析し、変調スキームを分類する。
古典的な畳み込みベースのネットワークは、局所的な特徴を抽出することに長けているが、グローバルな関係を捉えるのに苦労している。
論文 参考訳(メタデータ) (2024-01-02T06:31:24Z) - Modality-Collaborative Transformer with Hybrid Feature Reconstruction
for Robust Emotion Recognition [35.15390769958969]
ハイブリッド特徴再構成(MCT-HFR)を用いた統一型モダリティ協調変換器を提案する。
MCT-HFRは、モダリティ内およびモダリティ間関係を同時に抽出し、動的にバランスをとる新しいアテンションベースのエンコーダで構成されている。
モデルトレーニング中、LFIは、完全特徴を監督信号として活用し、局所的欠落した特徴を回復する一方、GFAはペア完全表現と不完全表現のグローバルな意味的ギャップを減らすように設計されている。
論文 参考訳(メタデータ) (2023-12-26T01:59:23Z) - Rotated Multi-Scale Interaction Network for Referring Remote Sensing Image Segmentation [63.15257949821558]
Referring Remote Sensing Image (RRSIS)は、コンピュータビジョンと自然言語処理を組み合わせた新しい課題である。
従来の参照画像(RIS)アプローチは、空中画像に見られる複雑な空間スケールと向きによって妨げられている。
本稿ではRMSIN(Rotated Multi-Scale Interaction Network)を紹介する。
論文 参考訳(メタデータ) (2023-12-19T08:14:14Z) - Specificity-Preserving Federated Learning for MR Image Reconstruction [94.58912814426122]
統合学習は、磁気共鳴(MR)画像再構成におけるデータのプライバシーと効率を改善するために使用できる。
近年のFL技術は、グローバルモデルの一般化を強化することで、この問題を解決する傾向にある。
MR画像再構成のための特異性保存FLアルゴリズム(FedMRI)を提案する。
論文 参考訳(メタデータ) (2021-12-09T22:13:35Z) - Multi-modal Aggregation Network for Fast MR Imaging [85.25000133194762]
我々は,完全サンプル化された補助モダリティから補完表現を発見できる,MANetという新しいマルチモーダル・アグリゲーション・ネットワークを提案する。
我々のMANetでは,完全サンプリングされた補助的およびアンアンサンプされた目標モダリティの表現は,特定のネットワークを介して独立に学習される。
私たちのMANetは、$k$-spaceドメインの周波数信号を同時に回復できるハイブリッドドメイン学習フレームワークに従います。
論文 参考訳(メタデータ) (2021-10-15T13:16:59Z) - Accelerated Multi-Modal MR Imaging with Transformers [92.18406564785329]
MR画像の高速化のためのマルチモーダルトランス(MTrans)を提案する。
トランスアーキテクチャを再構築することで、MTransは深いマルチモーダル情報をキャプチャする強力な能力を得ることができる。
i)MTransはマルチモーダルMRイメージングに改良されたトランスフォーマーを使用する最初の試みであり、CNNベースの手法と比較してよりグローバルな情報を提供する。
論文 参考訳(メタデータ) (2021-06-27T15:01:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。