論文の概要: Joint Frequency and Image Space Learning for MRI Reconstruction and
Analysis
- arxiv url: http://arxiv.org/abs/2007.01441v4
- Date: Sat, 18 Jun 2022 02:22:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 14:10:29.763704
- Title: Joint Frequency and Image Space Learning for MRI Reconstruction and
Analysis
- Title(参考訳): MRI再構成と解析のための共同周波数と画像空間学習
- Authors: Nalini M. Singh, Juan Eugenio Iglesias, Elfar Adalsteinsson, Adrian V.
Dalca, Polina Golland
- Abstract要約: 本稿では、周波数空間データから再構成するための汎用的なビルディングブロックとして、周波数と画像の特徴表現を明示的に組み合わせたニューラルネットワーク層が利用できることを示す。
提案した共同学習方式により、周波数空間に固有のアーティファクトの補正と画像空間表現の操作を両立させ、ネットワークのすべての層でコヒーレントな画像構造を再構築することができる。
- 参考スコア(独自算出の注目度): 7.821429746599738
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose neural network layers that explicitly combine frequency and image
feature representations and show that they can be used as a versatile building
block for reconstruction from frequency space data. Our work is motivated by
the challenges arising in MRI acquisition where the signal is a corrupted
Fourier transform of the desired image. The proposed joint learning schemes
enable both correction of artifacts native to the frequency space and
manipulation of image space representations to reconstruct coherent image
structures at every layer of the network. This is in contrast to most current
deep learning approaches for image reconstruction that treat frequency and
image space features separately and often operate exclusively in one of the two
spaces. We demonstrate the advantages of joint convolutional learning for a
variety of tasks, including motion correction, denoising, reconstruction from
undersampled acquisitions, and combined undersampling and motion correction on
simulated and real world multicoil MRI data. The joint models produce
consistently high quality output images across all tasks and datasets. When
integrated into a state of the art unrolled optimization network with
physics-inspired data consistency constraints for undersampled reconstruction,
the proposed architectures significantly improve the optimization landscape,
which yields an order of magnitude reduction of training time. This result
suggests that joint representations are particularly well suited for MRI
signals in deep learning networks. Our code and pretrained models are publicly
available at https://github.com/nalinimsingh/interlacer.
- Abstract(参考訳): 本稿では、周波数と画像の特徴表現を明示的に組み合わせたニューラルネットワーク層を提案し、周波数空間データから再構成するための汎用的なビルディングブロックとして使用できることを示す。
私たちの研究は、信号が所望の画像の劣化したフーリエ変換であるmri取得の課題に起因しています。
提案手法は,周波数空間に固有なアーティファクトの補正と画像空間表現の操作を両立させ,ネットワークの各層におけるコヒーレントな画像構造を再構築する。
これは、周波数と画像空間の特徴を別々に扱い、しばしば2つの空間の1つでのみ操作する、現在の画像再構成のディープラーニングアプローチと対照的である。
シミュレーションと実世界のマルチコイルMRIデータに対するアンダーサンプリングとモーション補正を併用し, 動作補正, デノイング, アンダーサンプル取得からの再構築, および, 共同畳み込み学習の利点を実証した。
ジョイントモデルでは、すべてのタスクとデータセットにわたって一貫して高品質な出力画像を生成する。
物理にインスパイアされたデータ一貫性制約を満たした最先端の最適化ネットワークに組み込むと、提案されたアーキテクチャは最適化のランドスケープを大幅に改善し、トレーニング時間の桁違いな削減をもたらす。
この結果は,関節表現が深層学習ネットワークにおけるMRI信号に特に適していることを示唆している。
私たちのコードと事前訓練されたモデルはhttps://github.com/nalinimsingh/interlacer.comで公開されています。
関連論文リスト
- A Unified Model for Compressed Sensing MRI Across Undersampling Patterns [69.19631302047569]
ディープニューラルネットワークは、アンダーサンプル計測から高忠実度画像を再構成する大きな可能性を示している。
我々のモデルは、離散化に依存しないアーキテクチャであるニューラル演算子に基づいている。
我々の推論速度は拡散法よりも1,400倍速い。
論文 参考訳(メタデータ) (2024-10-05T20:03:57Z) - Attention Hybrid Variational Net for Accelerated MRI Reconstruction [7.046523233290946]
磁気共鳴画像(MRI)の高速化のための圧縮センシング(CS)対応データ再構成の適用は依然として難しい問題である。
これは、加速マスクからk空間で失った情報が、完全にサンプリングされた画像の質に似た画像の再構成を困難にしているためである。
我々は,k空間と画像領域の両方で学習を行う,深層学習に基づく注目ハイブリッド変分ネットワークを提案する。
論文 参考訳(メタデータ) (2023-06-21T16:19:07Z) - Single-pass Object-adaptive Data Undersampling and Reconstruction for
MRI [6.599344783327054]
本稿では,畳み込みニューラルネットワークMNetを用いたデータ駆動型サンプリング手法を提案する。
ネットワークは、各オブジェクトに対する非常に限られた低周波k空間データを観測し、所望のアンダーサンプリングパターンを迅速に予測する。
高速MRI膝関節データセットの実験結果から,提案した学習アンダーサンプリングネットワークを用いて,4倍,8倍の加速度で物体特異的マスクを生成できることが示された。
論文 参考訳(メタデータ) (2021-11-17T16:06:06Z) - Multi-modal Aggregation Network for Fast MR Imaging [85.25000133194762]
我々は,完全サンプル化された補助モダリティから補完表現を発見できる,MANetという新しいマルチモーダル・アグリゲーション・ネットワークを提案する。
我々のMANetでは,完全サンプリングされた補助的およびアンアンサンプされた目標モダリティの表現は,特定のネットワークを介して独立に学習される。
私たちのMANetは、$k$-spaceドメインの周波数信号を同時に回復できるハイブリッドドメイン学習フレームワークに従います。
論文 参考訳(メタデータ) (2021-10-15T13:16:59Z) - Multi-Modal MRI Reconstruction with Spatial Alignment Network [51.74078260367654]
臨床実践では、複数のコントラストを持つMRIが1つの研究で取得されるのが普通である。
近年の研究では、異なるコントラストやモダリティの冗長性を考慮すると、k空間にアンダーサンプリングされたMRIの目標モダリティは、完全にサンプリングされたシーケンスの助けを借りてよりよく再構成できることが示されている。
本稿では,空間アライメントネットワークと再構成を統合し,再構成対象のモダリティの質を向上させる。
論文 参考訳(メタデータ) (2021-08-12T08:46:35Z) - IREM: High-Resolution Magnetic Resonance (MR) Image Reconstruction via
Implicit Neural Representation [33.55719364798433]
本稿では、複数の低分解能MR画像に基づいてトレーニングしたIREMと呼ばれる新しい画像再構成ネットワークを提案する。
IREMはスキャン時間を短縮し、SNRと局所像の詳細な点から高分解能MRイメージングを実現する。
論文 参考訳(メタデータ) (2021-06-29T05:25:43Z) - Over-and-Under Complete Convolutional RNN for MRI Reconstruction [57.95363471940937]
MR画像再構成のための最近のディープラーニングに基づく手法は、通常、汎用的なオートエンコーダアーキテクチャを利用する。
OUCR(Over-and-Under Complete Convolu?tional Recurrent Neural Network)を提案する。
提案手法は, トレーニング可能なパラメータの少ない圧縮されたセンシングと, 一般的なディープラーニングに基づく手法に対して, 大幅な改善を実現する。
論文 参考訳(メタデータ) (2021-06-16T15:56:34Z) - Joint Calibrationless Reconstruction and Segmentation of Parallel MRI [21.227526213206545]
キャリブレーションレス並列MRI再構成のための新しい画像領域深層学習フレームワークを提案する。
提案した画像領域の深いキャリブレーションレスアプローチとセグメンテーションアルゴリズムの組み合わせにより,画質が向上した。
提案されている数ショットのトレーニング戦略では、パフォーマンス向上のためにセグメント化されたデータセットの10%しか必要としない。
論文 参考訳(メタデータ) (2021-05-19T16:04:20Z) - Dual-Octave Convolution for Accelerated Parallel MR Image Reconstruction [75.35200719645283]
本稿では,実物と虚構の両方から,多次元空間周波数特徴を学習可能なDual-Octave Convolution(Dual-OctConv)を提案する。
オクターブ畳み込みによる複雑な操作を改質することで、MR画像のよりリッチな表現を捉える強力な能力を示す。
論文 参考訳(メタデータ) (2021-04-12T10:51:05Z) - Adaptive Gradient Balancing for UndersampledMRI Reconstruction and
Image-to-Image Translation [60.663499381212425]
本研究では,新しい適応勾配バランス手法を併用したwasserstein生成逆ネットワークを用いて,画質の向上を図る。
MRIでは、他の技術よりも鮮明な画像を生成する高品質の再構築を維持しながら、アーティファクトを最小限に抑えます。
論文 参考訳(メタデータ) (2021-04-05T13:05:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。