論文の概要: UniFS: Unified Multi-Contrast MRI Reconstruction via Frequency-Spatial Fusion
- arxiv url: http://arxiv.org/abs/2512.05481v1
- Date: Fri, 05 Dec 2025 07:18:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-13 22:40:56.932963
- Title: UniFS: Unified Multi-Contrast MRI Reconstruction via Frequency-Spatial Fusion
- Title(参考訳): UniFS:周波数-空間融合によるマルチコントラストMRI再構成
- Authors: Jialin Li, Yiwei Ren, Kai Pan, Dong Wei, Pujin Cheng, Xian Wu, Xiaoying Tang,
- Abstract要約: 我々は、複数のk空間アンダーサンプリングパターンを扱うために、統一周波数空間融合モデルを提案する。
UniFSは、Cross-Modal Frequency Fusionモジュール、Adaptive Mask-Based Prompt Learningモジュール、Dual-Branch Complementary Refinementモジュールの3つの主要なモジュールを統合している。
我々は,様々なk空間アンサンプパターンとアクセラレーション係数を持つBraTSおよびHCPデータセット上で,我々のモデルを評価する。
- 参考スコア(独自算出の注目度): 15.75611112180988
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, Multi-Contrast MR Reconstruction (MCMR) has emerged as a hot research topic that leverages high-quality auxiliary modalities to reconstruct undersampled target modalities of interest. However, existing methods often struggle to generalize across different k-space undersampling patterns, requiring the training of a separate model for each specific pattern, which limits their practical applicability. To address this challenge, we propose UniFS, a Unified Frequency-Spatial Fusion model designed to handle multiple k-space undersampling patterns for MCMR tasks without any need for retraining. UniFS integrates three key modules: a Cross-Modal Frequency Fusion module, an Adaptive Mask-Based Prompt Learning module, and a Dual-Branch Complementary Refinement module. These modules work together to extract domain-invariant features from diverse k-space undersampling patterns while dynamically adapt to their own variations. Another limitation of existing MCMR methods is their tendency to focus solely on spatial information while neglect frequency characteristics, or extract only shallow frequency features, thus failing to fully leverage complementary cross-modal frequency information. To relieve this issue, UniFS introduces an adaptive prompt-guided frequency fusion module for k-space learning, significantly enhancing the model's generalization performance. We evaluate our model on the BraTS and HCP datasets with various k-space undersampling patterns and acceleration factors, including previously unseen patterns, to comprehensively assess UniFS's generalizability. Experimental results across multiple scenarios demonstrate that UniFS achieves state-of-the-art performance. Our code is available at https://github.com/LIKP0/UniFS.
- Abstract(参考訳): 近年,Multi-Contrast MR Reconstruction (MCMR) が注目されている。
しかし、既存の手法はしばしば異なるk空間アンダーサンプリングパターンをまたいで一般化するのに苦労し、それぞれのパターンに対して個別のモデルを訓練する必要がある。
この課題に対処するために、再トレーニングを必要とせず、MCMRタスクの複数のk空間アンダーサンプリングパターンを処理するために設計されたUniFS(Unixed Frequency-Spatial Fusion Model)を提案する。
UniFSは、Cross-Modal Frequency Fusionモジュール、Adaptive Mask-Based Prompt Learningモジュール、Dual-Branch Complementary Refinementモジュールの3つの主要なモジュールを統合している。
これらのモジュールは協調して、様々なk空間アンダーサンプリングパターンからドメイン不変の特徴を抽出し、自身のバリエーションに動的に適応する。
既存のMCMR手法のもう1つの制限は、周波数特性を無視しながら空間情報のみに焦点を当てたり、浅い周波数の特徴だけを抽出する傾向にあり、補間周波数情報を完全に活用できないことである。
この問題を解消するため、UniFSはk空間学習のための適応的なプロンプト誘導周波数融合モジュールを導入し、モデルの一般化性能を大幅に向上させた。
我々は、様々なk空間アンサンプパターンとアクセラレーション要素を持つBraTSおよびHCPデータセット上で、以前に見つからなかったパターンを含むモデルを評価し、UniFSの一般化可能性を総合的に評価する。
複数のシナリオにわたる実験結果は、UniFSが最先端のパフォーマンスを達成することを示す。
私たちのコードはhttps://github.com/LIKP0/UniFSで利用可能です。
関連論文リスト
- UniDiff: A Unified Diffusion Framework for Multimodal Time Series Forecasting [90.47915032778366]
マルチモーダル時系列予測のための統合拡散フレームワークUniDiffを提案する。
コアには統一的で並列な融合モジュールがあり、単一のクロスアテンション機構がタイムスタンプからの構造化情報とテキストからのセマンティックコンテキストを統合する。
8つの領域にわたる実世界のベンチマークデータセットの実験は、提案したUniDiffモデルが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2025-12-08T05:36:14Z) - UniMMAD: Unified Multi-Modal and Multi-Class Anomaly Detection via MoE-Driven Feature Decompression [74.0893986012049]
UniMMADは、マルチモーダルおよびマルチクラスの異常検出のための統一されたフレームワークである。
UniMMADは、9つの異常検出データセット上で、3つのフィールド、12のモダリティ、66のクラスにまたがる最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-09-30T08:29:12Z) - Frequency-Domain Decomposition and Recomposition for Robust Audio-Visual Segmentation [60.9960601057956]
本稿では2つの主要なモジュールからなる周波数対応オーディオ・ビジュアルコンポスタ(FAVS)フレームワークを紹介する。
FAVSフレームワークは、3つのベンチマークデータセットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-09-23T12:33:48Z) - UniMRSeg: Unified Modality-Relax Segmentation via Hierarchical Self-Supervised Compensation [104.59740403500132]
マルチモーダルイメージセグメンテーションは、不完全/破損したモダリティの劣化による実際のデプロイメント課題に直面している。
階層型自己教師型補償(HSSC)による統一Modality-relaxセグメンテーションネットワーク(UniMRSeg)を提案する。
我々のアプローチは、入力レベル、特徴レベル、出力レベルをまたいだ完全なモダリティと不完全なモダリティの間の表現ギャップを階層的に橋渡しします。
論文 参考訳(メタデータ) (2025-09-19T17:29:25Z) - KFS: KAN based adaptive Frequency Selection learning architecture for long term time series forecasting [8.839783121363835]
そこで我々は,これらの課題に対処するために,KAを用いた適応周波数選択学習アーキテクチャ(KFS)を提案する。
このフレームワークは、クロススケールノイズ干渉と複雑なパターンモデリングから生じる予測問題に対処する。
複数の実世界の時系列データセットにまたがる実験により、KTは単純で効果的なアーキテクチャとして最先端のパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2025-08-01T13:50:57Z) - Generalizable Multispectral Land Cover Classification via Frequency-Aware Mixture of Low-Rank Token Experts [22.75047167955269]
マルチスペクトル土地被覆分類(MLCC)の新しいアプローチであるLand-MoEを紹介する。
Land-MoEは、低ランクトークンエキスパート(MoLTE)と周波数認識フィルタ(FAF)の2つの重要なモジュールから構成される。
論文 参考訳(メタデータ) (2025-05-20T08:52:28Z) - General Time-series Model for Universal Knowledge Representation of Multivariate Time-Series data [61.163542597764796]
周波数領域で異なる時間粒度(または対応する周波数分解能)の時系列が異なる結合分布を示すことを示す。
時間領域と周波数領域の両方からタイムアウェア表現を学習するために,新しいFourierナレッジアテンション機構を提案する。
自己回帰的空白埋め込み事前学習フレームワークを時系列解析に初めて組み込み、生成タスクに依存しない事前学習戦略を実現する。
論文 参考訳(メタデータ) (2025-02-05T15:20:04Z) - Accelerated Multi-Contrast MRI Reconstruction via Frequency and Spatial Mutual Learning [50.74383395813782]
本稿では,周波数・空間相互学習ネットワーク(FSMNet)を提案する。
提案したFSMNetは, 加速度係数の異なるマルチコントラストMR再構成タスクに対して, 最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-09-21T12:02:47Z) - MMR-Mamba: Multi-Modal MRI Reconstruction with Mamba and Spatial-Frequency Information Fusion [17.084083262801737]
MMR-MambaはMRI再建のためのマルチモーダル機能を完全にかつ効率的に統合する新しいフレームワークである。
具体的には,空間領域におけるTCM(Target modality-guided Cross Mamba)モジュールの設計を行う。
次に、フーリエ領域におけるグローバル情報を効率的に統合するための選択周波数融合(SFF)モジュールを提案する。
論文 参考訳(メタデータ) (2024-06-27T07:30:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。