論文の概要: Decoupling Multi-Contrast Super-Resolution: Pairing Unpaired Synthesis with Implicit Representations
- arxiv url: http://arxiv.org/abs/2505.05855v1
- Date: Fri, 09 May 2025 07:48:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-12 20:40:10.194834
- Title: Decoupling Multi-Contrast Super-Resolution: Pairing Unpaired Synthesis with Implicit Representations
- Title(参考訳): マルチコントラスト超解離のデカップリング:不規則表現による不適切な合成のペアリング
- Authors: Hongyu Rui, Yinzhe Wu, Fanwen Wang, Jiahao Huang, Liutao Yang, Zi Wang, Guang Yang,
- Abstract要約: マルチコントラスト・スーパーリゾリューション技術は、低解像度のコントラストの品質を高めることができる。
既存のMCSRメソッドは、しばしば固定解像度の設定を前提としており、すべて大きな完全にペアのトレーニングデータセットを必要とする。
本稿では,ペア化トレーニングデータの必要性を排除し,任意のアップスケーリングをサポートするモジュール型マルチコントラスト超解法フレームワークを提案する。
- 参考スコア(独自算出の注目度): 6.255537948555454
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Magnetic Resonance Imaging (MRI) is critical for clinical diagnostics but is often limited by long acquisition times and low signal-to-noise ratios, especially in modalities like diffusion and functional MRI. The multi-contrast nature of MRI presents a valuable opportunity for cross-modal enhancement, where high-resolution (HR) modalities can serve as references to boost the quality of their low-resolution (LR) counterparts-motivating the development of Multi-Contrast Super-Resolution (MCSR) techniques. Prior work has shown that leveraging complementary contrasts can improve SR performance; however, effective feature extraction and fusion across modalities with varying resolutions remains a major challenge. Moreover, existing MCSR methods often assume fixed resolution settings and all require large, perfectly paired training datasets-conditions rarely met in real-world clinical environments. To address these challenges, we propose a novel Modular Multi-Contrast Super-Resolution (MCSR) framework that eliminates the need for paired training data and supports arbitrary upscaling. Our method decouples the MCSR task into two stages: (1) Unpaired Cross-Modal Synthesis (U-CMS), which translates a high-resolution reference modality into a synthesized version of the target contrast, and (2) Unsupervised Super-Resolution (U-SR), which reconstructs the final output using implicit neural representations (INRs) conditioned on spatial coordinates. This design enables scale-agnostic and anatomically faithful reconstruction by bridging un-paired cross-modal synthesis with unsupervised resolution enhancement. Experiments show that our method achieves superior performance at 4x and 8x upscaling, with improved fidelity and anatomical consistency over existing baselines. Our framework demonstrates strong potential for scalable, subject-specific, and data-efficient MCSR in real-world clinical settings.
- Abstract(参考訳): 磁気共鳴イメージング(MRI)は臨床診断において重要であるが、特に拡散や機能的MRIのようなモダリティにおいて、長い取得時間と低信号-雑音比によって制限されることが多い。
MRIのマルチコントラスト特性は、高分解能(HR)モダリティが低分解能(LR)の指標となり、マルチコントラスト・スーパーリゾリューション(MCSR)技術の発展を動機付ける、クロスモーダルエンハンスメントの貴重な機会となる。
先行研究は、相補的なコントラストを活用することでSRの性能が向上することを示したが、しかしながら、様々な解像度を持つモダリティ間の効果的な特徴抽出と融合は大きな課題である。
さらに、既存のMCSR法は、しばしば固定解像度の設定を前提としており、全ては、現実の臨床環境ではめったに満たされない、完全にペアのトレーニングデータセット条件を必要とする。
これらの課題に対処するために、ペアトレーニングデータの必要性を排除し、任意のアップスケーリングをサポートする、新しいModular Multi-Contrast Super-Resolution (MCSR)フレームワークを提案する。
提案手法は,(1)高分解能の参照モダリティを対象のコントラストの合成版に変換するアンペア・クロスモーダル合成(U-CMS),(2)暗黙的ニューラル表現(INR)を用いて最終的な出力を再構成するアン教師なし超解法(U-SR)の2段階に分解する。
この設計は、教師なし分解能増強による非ペアのクロスモーダル合成をブリッジすることで、スケール非依存および解剖学的に忠実な再構築を可能にする。
実験により,本手法は既存ベースラインよりも忠実度および解剖学的整合性が向上し,4xおよび8xオーバースケーリングにおいて優れた性能を発揮することが示された。
本フレームワークは,実際の臨床環境において,スケーラブルで主観的,データ効率の高いMCSRの実現可能性を示す。
関連論文リスト
- A Unified Model for Compressed Sensing MRI Across Undersampling Patterns [69.19631302047569]
様々な計測アンサンプパターンと画像解像度に頑健な統合MRI再構成モデルを提案する。
我々のモデルは、拡散法よりも600$times$高速な推論で、最先端CNN(End-to-End VarNet)の4dBでSSIMを11%改善し、PSNRを4dB改善する。
論文 参考訳(メタデータ) (2024-10-05T20:03:57Z) - Frequency-Assisted Mamba for Remote Sensing Image Super-Resolution [49.902047563260496]
我々は、リモートセンシング画像(RSI)の超高解像度化のために、視覚状態空間モデル(Mamba)を統合するための最初の試みを開発した。
より優れたSR再構築を実現するため,FMSRと呼ばれる周波数支援型Mambaフレームワークを考案した。
我々のFMSRは、周波数選択モジュール(FSM)、ビジョン状態空間モジュール(VSSM)、ハイブリッドゲートモジュール(HGM)を備えた多層融合アーキテクチャを備えている。
論文 参考訳(メタデータ) (2024-05-08T11:09:24Z) - Uni-COAL: A Unified Framework for Cross-Modality Synthesis and
Super-Resolution of MR Images [34.79786909094346]
磁気共鳴画像(MRI)において、CMS、超解像(SR)、CMSR(CMSR)の併用が広く研究されている。
CMS、SR、CMSRを統一ネットワークで実行することはできない。
上記の課題を1つのネットワークで実現するために,Unified Co-Modulated Alias-free framework (Uni-COAL)を提案する。
論文 参考訳(メタデータ) (2023-11-14T15:05:59Z) - Compound Attention and Neighbor Matching Network for Multi-contrast MRI
Super-resolution [7.197850827700436]
MRIのマルチコントラスト超解像は、シングルイメージ超解像よりも優れた結果が得られる。
マルチコントラストMRI SRのための合成アテンションと近接マッチング(CANM-Net)を備えた新しいネットワークアーキテクチャを提案する。
CANM-Netは、ふりかえりと将来の実験において最先端のアプローチより優れている。
論文 参考訳(メタデータ) (2023-07-05T09:44:02Z) - Implicit Diffusion Models for Continuous Super-Resolution [65.45848137914592]
本稿では,高忠実度連続画像超解像のためのインプリシティ拡散モデル(IDM)を提案する。
IDMは暗黙のニューラル表現とデノナイジング拡散モデルを統合されたエンドツーエンドフレームワークに統合する。
スケーリング係数は分解能を調節し、最終出力におけるLR情報と生成された特徴の比率を変調する。
論文 参考訳(メタデータ) (2023-03-29T07:02:20Z) - DisC-Diff: Disentangled Conditional Diffusion Model for Multi-Contrast
MRI Super-Resolution [8.721585866050757]
マルチコントラスト脳MRI超解像のための条件拡散モデルDisC-Diffを提案する。
DisC-Diffは修復における不確実性を効果的に推定し、安定した最適化プロセスを保証する。
578個の正常脳を含むIXIデータセットと316個の病理脳を含む臨床データセットの2つのデータセットに対するDisC-Diffの有効性を検証した。
論文 参考訳(メタデータ) (2023-03-24T11:42:45Z) - Model-Guided Multi-Contrast Deep Unfolding Network for MRI
Super-resolution Reconstruction [68.80715727288514]
MRI観察行列を用いて,反復型MGDUNアルゴリズムを新しいモデル誘導深部展開ネットワークに展開する方法を示す。
本稿では,医療画像SR再構成のためのモデルガイド型解釈可能なDeep Unfolding Network(MGDUN)を提案する。
論文 参考訳(メタデータ) (2022-09-15T03:58:30Z) - Transformer-empowered Multi-scale Contextual Matching and Aggregation
for Multi-contrast MRI Super-resolution [55.52779466954026]
マルチコントラスト・スーパーレゾリューション (SR) 再構成により, SR画像の高画質化が期待できる。
既存の手法では、これらの特徴をマッチングし、融合させる効果的なメカニズムが欠如している。
そこで本稿では,トランスフォーマーを利用したマルチスケールコンテキストマッチングとアグリゲーション技術を開発することで,これらの問題を解決する新しいネットワークを提案する。
論文 参考訳(メタデータ) (2022-03-26T01:42:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。