論文の概要: JoJoNet: Joint-contrast and Joint-sampling-and-reconstruction Network
for Multi-contrast MRI
- arxiv url: http://arxiv.org/abs/2210.12548v1
- Date: Sat, 22 Oct 2022 20:46:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 18:57:22.757874
- Title: JoJoNet: Joint-contrast and Joint-sampling-and-reconstruction Network
for Multi-contrast MRI
- Title(参考訳): JoJoNet:マルチコントラストMRIのためのジョイントコントラストとジョイントサンプリング・アンド・リコンストラクションネットワーク
- Authors: Lin Zhao, Xiao Chen, Eric Z. Chen, Yikang Liu, Dinggang Shen, Terrence
Chen, Shanhui Sun
- Abstract要約: 提案フレームワークは,各画像コントラストに対するサンプリングマスク生成器と,コントラスト間相関と繰り返し構造とを併用した再構成器とから構成される。
各画像コントラストの加速度比も学習可能であり、下流タスク性能によって駆動することができる。
- 参考スコア(独自算出の注目度): 49.29851365978476
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-contrast Magnetic Resonance Imaging (MRI) generates multiple medical
images with rich and complementary information for routine clinical use;
however, it suffers from a long acquisition time. Recent works for accelerating
MRI, mainly designed for single contrast, may not be optimal for multi-contrast
scenario since the inherent correlations among the multi-contrast images are
not exploited. In addition, independent reconstruction of each contrast usually
does not translate to optimal performance of downstream tasks. Motivated by
these aspects, in this paper we design an end-to-end framework for accelerating
multi-contrast MRI which simultaneously optimizes the entire MR imaging
workflow including sampling, reconstruction and downstream tasks to achieve the
best overall outcomes. The proposed framework consists of a sampling mask
generator for each image contrast and a reconstructor exploiting the
inter-contrast correlations with a recurrent structure which enables the
information sharing in a holistic way. The sampling mask generator and the
reconstructor are trained jointly across the multiple image contrasts. The
acceleration ratio of each image contrast is also learnable and can be driven
by a downstream task performance. We validate our approach on a multi-contrast
brain dataset and a multi-contrast knee dataset. Experiments show that (1) our
framework consistently outperforms the baselines designed for single contrast
on both datasets; (2) our newly designed recurrent reconstruction network
effectively improves the reconstruction quality for multi-contrast images; (3)
the learnable acceleration ratio improves the downstream task performance
significantly. Overall, this work has potentials to open up new avenues for
optimizing the entire multi-contrast MR imaging workflow.
- Abstract(参考訳): マルチコントラストMRI(Multi-Contrast Magnetic Resonance Imaging)は, 日常的な臨床用として, リッチで相補的な情報を持つ複数の医用画像を生成するが, 長い取得時間を要する。
単一のコントラストを主目的としたMRIの高速化に向けた最近の研究は,マルチコントラスト画像の固有相関を活用できないため,マルチコントラストシナリオに最適ではない可能性がある。
加えて、各コントラストの独立復元は通常、下流タスクの最適性能に変換されない。
そこで本稿では,mr画像の抽出,再構成,ダウンストリームタスクを含むmr画像のワークフロー全体を最適化し,最良結果を達成するためのエンドツーエンドmriフレームワークを提案する。
提案手法は,各画像コントラストに対するサンプリングマスク生成器と,コントラスト間の相関を利用した再構成器と,情報共有を包括的に行うリカレント構造からなる。
サンプリングマスク生成装置と再構成装置は、複数の画像コントラストにわたって共同で訓練される。
各画像コントラストの加速度比も学習可能であり、下流タスク性能によって駆動することができる。
マルチコントラスト脳データセットとマルチコントラスト膝データセットに対するアプローチを検証する。
実験により,(1)両データセットの単一コントラストのためのベースラインを一貫して上回っており,(2)新たに設計されたリカレント再構成ネットワークは,マルチコントラスト画像の復元品質を効果的に向上させ,(3)学習可能な加速度比により下流タスクの性能が大幅に向上することを示した。
全体として、この研究は、マルチコントラストMRイメージングワークフロー全体を最適化するための新しい道を開く可能性がある。
関連論文リスト
- Dual-Domain Multi-Contrast MRI Reconstruction with Synthesis-based
Fusion Network [8.721677700107639]
提案手法は,ディープラーニングに基づくアンダーサンプリング対象コントラストの最適化を容易にする。
本手法は,(1)対象コントラストに類似したデータを基準コントラストから合成すること,(2)マルチコントラストデータを登録してスキャン間運動を低減すること,(3)対象コントラストを再構成するための登録データを活用すること,の3つの重要なステップから構成される。
提案手法は,最先端のアルゴリズムと比較して,最大8倍の加速速度を示す。
論文 参考訳(メタデータ) (2023-12-01T15:40:26Z) - Deep Unfolding Convolutional Dictionary Model for Multi-Contrast MRI
Super-resolution and Reconstruction [23.779641808300596]
最適化アルゴリズムの指導の下で,マルチコントラスト畳み込み辞書(MC-CDic)モデルを提案する。
近似勾配アルゴリズムを用いてモデルを最適化し、反復的なステップを深部CDicモデルに展開する。
実験により,既存のSOTA法に対して提案したMC-CDicモデルの方が優れた性能を示した。
論文 参考訳(メタデータ) (2023-09-03T13:18:59Z) - Model-Guided Multi-Contrast Deep Unfolding Network for MRI
Super-resolution Reconstruction [68.80715727288514]
MRI観察行列を用いて,反復型MGDUNアルゴリズムを新しいモデル誘導深部展開ネットワークに展開する方法を示す。
本稿では,医療画像SR再構成のためのモデルガイド型解釈可能なDeep Unfolding Network(MGDUN)を提案する。
論文 参考訳(メタデータ) (2022-09-15T03:58:30Z) - Transformer-empowered Multi-scale Contextual Matching and Aggregation
for Multi-contrast MRI Super-resolution [55.52779466954026]
マルチコントラスト・スーパーレゾリューション (SR) 再構成により, SR画像の高画質化が期待できる。
既存の手法では、これらの特徴をマッチングし、融合させる効果的なメカニズムが欠如している。
そこで本稿では,トランスフォーマーを利用したマルチスケールコンテキストマッチングとアグリゲーション技術を開発することで,これらの問題を解決する新しいネットワークを提案する。
論文 参考訳(メタデータ) (2022-03-26T01:42:59Z) - Multi-modal Aggregation Network for Fast MR Imaging [85.25000133194762]
我々は,完全サンプル化された補助モダリティから補完表現を発見できる,MANetという新しいマルチモーダル・アグリゲーション・ネットワークを提案する。
我々のMANetでは,完全サンプリングされた補助的およびアンアンサンプされた目標モダリティの表現は,特定のネットワークを介して独立に学習される。
私たちのMANetは、$k$-spaceドメインの周波数信号を同時に回復できるハイブリッドドメイン学習フレームワークに従います。
論文 参考訳(メタデータ) (2021-10-15T13:16:59Z) - Multi-Modal MRI Reconstruction with Spatial Alignment Network [51.74078260367654]
臨床実践では、複数のコントラストを持つMRIが1つの研究で取得されるのが普通である。
近年の研究では、異なるコントラストやモダリティの冗長性を考慮すると、k空間にアンダーサンプリングされたMRIの目標モダリティは、完全にサンプリングされたシーケンスの助けを借りてよりよく再構成できることが示されている。
本稿では,空間アライメントネットワークと再構成を統合し,再構成対象のモダリティの質を向上させる。
論文 参考訳(メタデータ) (2021-08-12T08:46:35Z) - Multi-Contrast MRI Super-Resolution via a Multi-Stage Integration
Network [31.591461062282384]
超解像(SR)はMRIの画質向上に重要な役割を担っている
MRIはマルチコントラスト画像を生成し、軟部組織の明瞭な表示を提供する。
本研究では,マルチコントラストMRI SRのための多段階統合ネットワーク (MINet) を提案する。
論文 参考訳(メタデータ) (2021-05-19T06:47:31Z) - Dual-Octave Convolution for Accelerated Parallel MR Image Reconstruction [75.35200719645283]
本稿では,実物と虚構の両方から,多次元空間周波数特徴を学習可能なDual-Octave Convolution(Dual-OctConv)を提案する。
オクターブ畳み込みによる複雑な操作を改質することで、MR画像のよりリッチな表現を捉える強力な能力を示す。
論文 参考訳(メタデータ) (2021-04-12T10:51:05Z) - Deep Simultaneous Optimisation of Sampling and Reconstruction for
Multi-contrast MRI [6.981200113164422]
一つのコントラストの最適化サンプリングパターンと再構成スキームを生成するアルゴリズムを提案する。
提案アルゴリズムはPSNRとSSIMの増大を最適サンプリングパターンで達成する。
論文 参考訳(メタデータ) (2021-03-31T00:45:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。