論文の概要: CD-DPE: Dual-Prompt Expert Network based on Convolutional Dictionary Feature Decoupling for Multi-Contrast MRI Super-Resolution
- arxiv url: http://arxiv.org/abs/2511.14014v1
- Date: Tue, 18 Nov 2025 00:42:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:52.856642
- Title: CD-DPE: Dual-Prompt Expert Network based on Convolutional Dictionary Feature Decoupling for Multi-Contrast MRI Super-Resolution
- Title(参考訳): CD-DPE:マルチコントラストMRIスーパーリゾリューションのための畳み込み辞書特徴分離に基づくデュアルプロンプトエキスパートネットワーク
- Authors: Xianming Gu, Lihui Wang, Ying Cao, Zeyu Deng, Yingfeng Ou, Guodong Hu, Yi Chen,
- Abstract要約: マルチコントラスト磁気共鳴画像(MRI)は、低分解能(LR)スキャンから高分解能(HR)画像を再構成することを目的としている。
モダリティ間のコントラストの継承は、基準画像テクスチャを効果的に活用して目標画像再構成を誘導する上で、基本的な課題となる。
マルチコントラストMRI超解像のための畳み込み辞書特徴分離(CD-DPE)戦略に基づくデュアルプロンプトエキスパートネットワークを提案する。
- 参考スコア(独自算出の注目度): 8.016426002499626
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-contrast magnetic resonance imaging (MRI) super-resolution intends to reconstruct high-resolution (HR) images from low-resolution (LR) scans by leveraging structural information present in HR reference images acquired with different contrasts. This technique enhances anatomical detail and soft tissue differentiation, which is vital for early diagnosis and clinical decision-making. However, inherent contrasts disparities between modalities pose fundamental challenges in effectively utilizing reference image textures to guide target image reconstruction, often resulting in suboptimal feature integration. To address this issue, we propose a dual-prompt expert network based on a convolutional dictionary feature decoupling (CD-DPE) strategy for multi-contrast MRI super-resolution. Specifically, we introduce an iterative convolutional dictionary feature decoupling module (CD-FDM) to separate features into cross-contrast and intra-contrast components, thereby reducing redundancy and interference. To fully integrate these features, a novel dual-prompt feature fusion expert module (DP-FFEM) is proposed. This module uses a frequency prompt to guide the selection of relevant reference features for incorporation into the target image, while an adaptive routing prompt determines the optimal method for fusing reference and target features to enhance reconstruction quality. Extensive experiments on public multi-contrast MRI datasets demonstrate that CD-DPE outperforms state-of-the-art methods in reconstructing fine details. Additionally, experiments on unseen datasets demonstrated that CD-DPE exhibits strong generalization capabilities.
- Abstract(参考訳): マルチコントラスト磁気共鳴画像(MRI)は、異なるコントラストで取得されたHR参照画像に含まれる構造情報を活用することにより、低分解能(LR)スキャンから高分解能(HR)画像を再構成することを目的としている。
この技術は解剖学的詳細と軟組織分化を促進し、早期診断と臨床的意思決定に不可欠である。
しかしながら、モダリティ間の相違は、目標画像の再構成をガイドするために参照画像テクスチャを効果的に活用する上で、基本的な課題となる。
この問題に対処するために,マルチコントラストMRI超解像のための畳み込み辞書特徴分離(CD-DPE)戦略に基づくデュアルプロンプトの専門家ネットワークを提案する。
具体的には,反復的畳み込み辞書機能分離モジュール(CD-FDM)を導入し,特徴をコントラスト内コンポーネントとコントラスト内コンポーネントに分離し,冗長性と干渉を低減する。
これらの機能を完全に統合するために、新しいデュアルプロンプト機能融合エキスパートモジュール(DP-FFEM)を提案する。
本モジュールは、周波数プロンプトを用いて、対象画像に組み込むための関連参照特徴の選択を誘導し、適応ルーティングプロンプトは、参照特徴とターゲット特徴を融合する最適な方法を決定して再構成品質を向上させる。
パブリックなマルチコントラストMRIデータセットに対する大規模な実験により、CD-DPEは細部を再構築する際に最先端の手法より優れていることが示された。
さらに、目に見えないデータセットの実験では、CD-DPEは強力な一般化能力を示すことを示した。
関連論文リスト
- Nexus-INR: Diverse Knowledge-guided Arbitrary-Scale Multimodal Medical Image Super-Resolution [14.992795611397579]
任意分解能超解像は、多様な空間分解能に適応することにより、医用画像解析に重要な柔軟性を提供する。
従来のCNNベースの手法は、基本的にARSRには適さない。
高品質で適応性のある医用画像の超高解像度化を実現するために,様々な情報と下流タスクを利用する多言語知識誘導ARSRフレームワークであるNexus-INRを提案する。
論文 参考訳(メタデータ) (2025-08-05T04:44:35Z) - A Unified Model for Compressed Sensing MRI Across Undersampling Patterns [69.19631302047569]
様々な計測アンサンプパターンと画像解像度に頑健な統合MRI再構成モデルを提案する。
我々のモデルは、拡散法よりも600$times$高速な推論で、最先端CNN(End-to-End VarNet)の4dBでSSIMを11%改善し、PSNRを4dB改善する。
論文 参考訳(メタデータ) (2024-10-05T20:03:57Z) - MindFormer: Semantic Alignment of Multi-Subject fMRI for Brain Decoding [50.55024115943266]
本稿では,MindFormer を用いたマルチオブジェクト fMRI 信号のセマンティックアライメント手法を提案する。
このモデルは、fMRIから画像生成のための安定拡散モデルや、fMRIからテキスト生成のための大規模言語モデル(LLM)の条件付けに使用できるfMRI条件付き特徴ベクトルを生成するように設計されている。
実験の結果,MindFormerは意味的に一貫した画像とテキストを異なる主題にわたって生成することがわかった。
論文 参考訳(メタデータ) (2024-05-28T00:36:25Z) - DuDoUniNeXt: Dual-domain unified hybrid model for single and
multi-contrast undersampled MRI reconstruction [24.937435059755288]
そこで我々はDuDoUniNeXtを提案する。DuDoUniNeXtは、不在、低品質、高品質な参照画像を含むシナリオに対応可能な、統合されたデュアルドメインMRI再構成ネットワークである。
実験により,提案モデルが最先端のSCモデルとMCモデルを大幅に上回ることを示した。
論文 参考訳(メタデータ) (2024-03-08T12:26:48Z) - Dual Arbitrary Scale Super-Resolution for Multi-Contrast MRI [23.50915512118989]
マルチコントラスト超解像 (SR) 再構成により, SR画像の高画質化が期待できる。
放射線技師は、固定スケールではなく任意のスケールでMR画像を拡大することに慣れている。
本稿では,Dual-ArbNetと呼ばれる,暗黙的ニューラル表現に基づくマルチコントラストMRI超解像法を提案する。
論文 参考訳(メタデータ) (2023-07-05T14:43:26Z) - Model-Guided Multi-Contrast Deep Unfolding Network for MRI
Super-resolution Reconstruction [68.80715727288514]
MRI観察行列を用いて,反復型MGDUNアルゴリズムを新しいモデル誘導深部展開ネットワークに展開する方法を示す。
本稿では,医療画像SR再構成のためのモデルガイド型解釈可能なDeep Unfolding Network(MGDUN)を提案する。
論文 参考訳(メタデータ) (2022-09-15T03:58:30Z) - Transformer-empowered Multi-scale Contextual Matching and Aggregation
for Multi-contrast MRI Super-resolution [55.52779466954026]
マルチコントラスト・スーパーレゾリューション (SR) 再構成により, SR画像の高画質化が期待できる。
既存の手法では、これらの特徴をマッチングし、融合させる効果的なメカニズムが欠如している。
そこで本稿では,トランスフォーマーを利用したマルチスケールコンテキストマッチングとアグリゲーション技術を開発することで,これらの問題を解決する新しいネットワークを提案する。
論文 参考訳(メタデータ) (2022-03-26T01:42:59Z) - Multi-modal Aggregation Network for Fast MR Imaging [85.25000133194762]
我々は,完全サンプル化された補助モダリティから補完表現を発見できる,MANetという新しいマルチモーダル・アグリゲーション・ネットワークを提案する。
我々のMANetでは,完全サンプリングされた補助的およびアンアンサンプされた目標モダリティの表現は,特定のネットワークを介して独立に学習される。
私たちのMANetは、$k$-spaceドメインの周波数信号を同時に回復できるハイブリッドドメイン学習フレームワークに従います。
論文 参考訳(メタデータ) (2021-10-15T13:16:59Z) - Exploring Separable Attention for Multi-Contrast MR Image
Super-Resolution [88.16655157395785]
本稿では,SANet という,分離可能なアテンションネットワーク (優先のアテンションと背景分離のアテンションを含む) を提案する。
補助コントラストの助けを借りて、前後方向の前景と背景領域を探索することができる。
これは、補助コントラストを用いて前景と背景領域を予測する分離可能なアテンションメカニズムを探索する最初のモデルである。
論文 参考訳(メタデータ) (2021-09-03T05:53:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。