論文の概要: Deep Unfolding Convolutional Dictionary Model for Multi-Contrast MRI
Super-resolution and Reconstruction
- arxiv url: http://arxiv.org/abs/2309.01171v2
- Date: Wed, 24 Jan 2024 02:50:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-25 17:29:09.939359
- Title: Deep Unfolding Convolutional Dictionary Model for Multi-Contrast MRI
Super-resolution and Reconstruction
- Title(参考訳): マルチコントラストMRI超解像・再構成のための深部展開畳み込み辞書モデル
- Authors: Pengcheng Lei, Faming Fang, Guixu Zhang and Ming Xu
- Abstract要約: 最適化アルゴリズムの指導の下で,マルチコントラスト畳み込み辞書(MC-CDic)モデルを提案する。
近似勾配アルゴリズムを用いてモデルを最適化し、反復的なステップを深部CDicモデルに展開する。
実験により,既存のSOTA法に対して提案したMC-CDicモデルの方が優れた性能を示した。
- 参考スコア(独自算出の注目度): 23.779641808300596
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Magnetic resonance imaging (MRI) tasks often involve multiple contrasts.
Recently, numerous deep learning-based multi-contrast MRI super-resolution (SR)
and reconstruction methods have been proposed to explore the complementary
information from the multi-contrast images. However, these methods either
construct parameter-sharing networks or manually design fusion rules, failing
to accurately model the correlations between multi-contrast images and lacking
certain interpretations. In this paper, we propose a multi-contrast
convolutional dictionary (MC-CDic) model under the guidance of the optimization
algorithm with a well-designed data fidelity term. Specifically, we bulid an
observation model for the multi-contrast MR images to explicitly model the
multi-contrast images as common features and unique features. In this way, only
the useful information in the reference image can be transferred to the target
image, while the inconsistent information will be ignored. We employ the
proximal gradient algorithm to optimize the model and unroll the iterative
steps into a deep CDic model. Especially, the proximal operators are replaced
by learnable ResNet. In addition, multi-scale dictionaries are introduced to
further improve the model performance. We test our MC-CDic model on
multi-contrast MRI SR and reconstruction tasks. Experimental results
demonstrate the superior performance of the proposed MC-CDic model against
existing SOTA methods. Code is available at
https://github.com/lpcccc-cv/MC-CDic.
- Abstract(参考訳): 磁気共鳴イメージング(MRI)タスクは、しばしば複数のコントラストを含む。
近年,マルチコントラスト画像からの補完情報を探索するために,多くの深層学習に基づくマルチコントラストMRI超解像(SR)と再構成手法が提案されている。
しかし、これらの手法はパラメータ共有ネットワークを構築するか、あるいは融合ルールを手動で設計するか、マルチコントラスト画像間の相関を正確にモデル化できず、特定の解釈を欠いている。
本稿では,データ忠実度項を用いた最適化アルゴリズムの指導の下で,マルチコントラスト畳み込み辞書(MC-CDic)モデルを提案する。
具体的には,マルチコントラストmr画像の観測モデルを膨らませ,マルチコントラスト画像の共通特徴と特徴を明示的にモデル化する。
このようにして、参照画像中の有用な情報のみを対象画像に転送でき、一貫性のない情報を無視することができる。
我々は近位勾配アルゴリズムを用いてモデルを最適化し,反復ステップを深いccdモデルに展開する。
特に近位演算子は学習可能なresnetに置き換えられる。
さらに,モデル性能をさらに向上させるために,マルチスケール辞書が導入された。
マルチコントラストMRI SRと再構成タスクでMC-CDicモデルをテストする。
実験の結果,既存のSOTA法に対するMC-CDicモデルの有効性が示された。
コードはhttps://github.com/lpcccc-cv/mc-cdicで入手できる。
関連論文リスト
- NeuroPictor: Refining fMRI-to-Image Reconstruction via Multi-individual Pretraining and Multi-level Modulation [55.51412454263856]
本稿では,fMRI信号を用いた拡散モデル生成過程を直接変調することを提案する。
様々な個人から約67,000 fMRI-imageペアのトレーニングを行うことで,fMRI-to-imageデコーディング能力に優れたモデルが得られた。
論文 参考訳(メタデータ) (2024-03-27T02:42:52Z) - DuDoUniNeXt: Dual-domain unified hybrid model for single and
multi-contrast undersampled MRI reconstruction [24.937435059755288]
そこで我々はDuDoUniNeXtを提案する。DuDoUniNeXtは、不在、低品質、高品質な参照画像を含むシナリオに対応可能な、統合されたデュアルドメインMRI再構成ネットワークである。
実験により,提案モデルが最先端のSCモデルとMCモデルを大幅に上回ることを示した。
論文 参考訳(メタデータ) (2024-03-08T12:26:48Z) - JoJoNet: Joint-contrast and Joint-sampling-and-reconstruction Network
for Multi-contrast MRI [49.29851365978476]
提案フレームワークは,各画像コントラストに対するサンプリングマスク生成器と,コントラスト間相関と繰り返し構造とを併用した再構成器とから構成される。
各画像コントラストの加速度比も学習可能であり、下流タスク性能によって駆動することができる。
論文 参考訳(メタデータ) (2022-10-22T20:46:56Z) - Model-Guided Multi-Contrast Deep Unfolding Network for MRI
Super-resolution Reconstruction [68.80715727288514]
MRI観察行列を用いて,反復型MGDUNアルゴリズムを新しいモデル誘導深部展開ネットワークに展開する方法を示す。
本稿では,医療画像SR再構成のためのモデルガイド型解釈可能なDeep Unfolding Network(MGDUN)を提案する。
論文 参考訳(メタデータ) (2022-09-15T03:58:30Z) - A Learnable Variational Model for Joint Multimodal MRI Reconstruction
and Synthesis [4.056490719080639]
マルチモーダルMRIの関節再構成と合成のための新しいディープラーニングモデルを提案する。
本モデルの出力は、ソースのモダリティの再構成画像と、ターゲットのモダリティで合成された高品質な画像を含む。
論文 参考訳(メタデータ) (2022-04-08T01:35:19Z) - Transformer-empowered Multi-scale Contextual Matching and Aggregation
for Multi-contrast MRI Super-resolution [55.52779466954026]
マルチコントラスト・スーパーレゾリューション (SR) 再構成により, SR画像の高画質化が期待できる。
既存の手法では、これらの特徴をマッチングし、融合させる効果的なメカニズムが欠如している。
そこで本稿では,トランスフォーマーを利用したマルチスケールコンテキストマッチングとアグリゲーション技術を開発することで,これらの問題を解決する新しいネットワークを提案する。
論文 参考訳(メタデータ) (2022-03-26T01:42:59Z) - Multi-modal Aggregation Network for Fast MR Imaging [85.25000133194762]
我々は,完全サンプル化された補助モダリティから補完表現を発見できる,MANetという新しいマルチモーダル・アグリゲーション・ネットワークを提案する。
我々のMANetでは,完全サンプリングされた補助的およびアンアンサンプされた目標モダリティの表現は,特定のネットワークを介して独立に学習される。
私たちのMANetは、$k$-spaceドメインの周波数信号を同時に回復できるハイブリッドドメイン学習フレームワークに従います。
論文 参考訳(メタデータ) (2021-10-15T13:16:59Z) - Accurate and Lightweight Image Super-Resolution with Model-Guided Deep
Unfolding Network [63.69237156340457]
我々は、モデル誘導深部展開ネットワーク(MoG-DUN)と呼ばれるSISRに対する説明可能なアプローチを提示し、提唱する。
MoG-DUNは正確(エイリアスを少なくする)、計算効率(モデルパラメータを減らした)、多用途(多重劣化を処理できる)である。
RCAN, SRDNF, SRFBNを含む既存の最先端画像手法に対するMoG-DUN手法の優位性は、いくつかの一般的なデータセットと様々な劣化シナリオに関する広範な実験によって実証されている。
論文 参考訳(メタデータ) (2020-09-14T08:23:37Z) - Interpretable Deep Multimodal Image Super-Resolution [23.48305854574444]
マルチモーダル画像超解像(Multimodal image super- resolution, SR)は、高分解能画像の再構成である。
本稿では,結合した疎結合を組み込んだマルチモーダルディープネットワーク設計を行い,他のモーダルからの情報を再構成プロセスに効果的に融合させる。
論文 参考訳(メタデータ) (2020-09-07T14:08:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。