論文の概要: Spatial and Modal Optimal Transport for Fast Cross-Modal MRI
Reconstruction
- arxiv url: http://arxiv.org/abs/2305.02774v1
- Date: Thu, 4 May 2023 12:20:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-05 15:42:30.462129
- Title: Spatial and Modal Optimal Transport for Fast Cross-Modal MRI
Reconstruction
- Title(参考訳): 高速クロスモーダルMRI画像再構成のための空間的・モーダル的移動法
- Authors: Qi Wang, Zhijie Wen, Jun Shi, Qian Wang, Dinggang Shen, and Shihui
Ying
- Abstract要約: 多モードMRI(Multi-modal Magnetic Resonance Imaging)は臨床医学において重要な役割を担っている。
T2重み付きモダリティのようないくつかのモダリティは長い時間を必要とし、常に運動アーティファクトを伴っている。
本稿では,補助モダリティ(T1WI)を導入することにより,T2WIの獲得を加速する。
- 参考スコア(独自算出の注目度): 57.58807031727605
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-modal Magnetic Resonance Imaging (MRI) plays an important role in
clinical medicine. However, the acquisitions of some modalities, such as the
T2-weighted modality, need a long time and they are always accompanied by
motion artifacts. On the other hand, the T1-weighted image (T1WI) shares the
same underlying information with T2-weighted image (T2WI), which needs a
shorter scanning time. Therefore, in this paper we accelerate the acquisition
of the T2WI by introducing the auxiliary modality (T1WI). Concretely, we first
reconstruct high-quality T2WIs with under-sampled T2WIs. Here, we realize fast
T2WI reconstruction by reducing the sampling rate in the k-space. Second, we
establish a cross-modal synthesis task to generate the synthetic T2WIs for
guiding better T2WI reconstruction. Here, we obtain the synthetic T2WIs by
decomposing the whole cross-modal generation mapping into two OT processes, the
spatial alignment mapping on the T1 image manifold and the cross-modal
synthesis mapping from aligned T1WIs to T2WIs. It overcomes the negative
transfer caused by the spatial misalignment. Then, we prove the reconstruction
and the synthesis tasks are well complementary. Finally, we compare it with
state-of-the-art approaches on an open dataset FastMRI and an in-house dataset
to testify the validity of the proposed method.
- Abstract(参考訳): マルチモーダル磁気共鳴画像(mri)は臨床医学において重要な役割を担っている。
しかし、T2重み付きモダリティのようないくつかのモダリティの獲得には長い時間が必要であり、常に運動アーティファクトが伴う。
一方、T1強調画像(T1WI)は同じ基盤情報をT2強調画像(T2WI)と共有しており、スキャン時間は短い。
そこで本稿では,補助モダリティ(T1WI)を導入することにより,T2WIの獲得を加速する。
具体的には、まず低サンプリングT2WIを用いて高品質なT2WIを再構成する。
ここでは,k空間におけるサンプリングレートを低減し,高速なT2WI再構成を実現する。
第2に、より優れたT2WI再構成を導くための合成T2WIを生成するためのクロスモーダル合成タスクを確立する。
本稿では、T1画像多様体上の空間アライメントマッピングと、整列したT1WIからT2WIへのクロスモーダル合成マッピングという、2つのOTプロセスにクロスモーダル生成マッピング全体を分解して合成T2WIを得る。
空間的不整合による負の移動を克服する。
そして,復元作業と合成作業が相補的であることを証明した。
最後に,提案手法の有効性を検証するために,オープンデータセットFastMRIと社内データセットの最先端手法との比較を行った。
関連論文リスト
- Two-Stage Approach for Brain MR Image Synthesis: 2D Image Synthesis and 3D Refinement [1.5683566370372715]
腫瘍像を正確に表現することで,欠失モードの特異な特徴を反映したMRI画像の合成が重要である。
本稿では,2次元スライスからMR画像を合成する2段階の手法を提案する。
論文 参考訳(メタデータ) (2024-10-14T08:21:08Z) - Rotational Augmented Noise2Inverse for Low-dose Computed Tomography
Reconstruction [83.73429628413773]
改良された深層学習手法は、画像のノイズを除去する能力を示しているが、正確な地上の真実を必要とする。
畳み込みニューラルネットワーク(CNN)のトレーニングに基礎的真理を必要としないLDCTのための新しい自己教師型フレームワークを提案する。
数値および実験結果から,Sparse View を用いた N2I の再構成精度は低下しており,提案手法は異なる範囲のサンプリング角度で画像品質を向上する。
論文 参考訳(メタデータ) (2023-12-19T22:40:51Z) - Deep Cardiac MRI Reconstruction with ADMM [7.694990352622926]
心臓画像の分野では, 深層学習(DL)を用いたシネ・マルチコントラスト再建法を提案する。
提案手法は画像領域とk空間領域の両方を最適化し,高い再構成精度を実現する。
論文 参考訳(メタデータ) (2023-10-10T13:46:11Z) - Model-Guided Multi-Contrast Deep Unfolding Network for MRI
Super-resolution Reconstruction [68.80715727288514]
MRI観察行列を用いて,反復型MGDUNアルゴリズムを新しいモデル誘導深部展開ネットワークに展開する方法を示す。
本稿では,医療画像SR再構成のためのモデルガイド型解釈可能なDeep Unfolding Network(MGDUN)を提案する。
論文 参考訳(メタデータ) (2022-09-15T03:58:30Z) - Cross-Modality High-Frequency Transformer for MR Image Super-Resolution [100.50972513285598]
我々はTransformerベースのMR画像超解像フレームワークを構築するための初期の取り組みを構築した。
我々は、高周波構造とモード間コンテキストを含む2つの領域先行について考察する。
我々は,Cross-modality High- frequency Transformer (Cohf-T)と呼ばれる新しいTransformerアーキテクチャを構築し,低解像度画像の超解像化を実現する。
論文 参考訳(メタデータ) (2022-03-29T07:56:55Z) - Fast T2w/FLAIR MRI Acquisition by Optimal Sampling of Information
Complementary to Pre-acquired T1w MRI [52.656075914042155]
本稿では,MRIによる他のモダリティ獲得のためのアンダーサンプリングパターンを最適化するための反復的フレームワークを提案する。
公開データセット上で学習したアンダーサンプリングパターンの優れた性能を実証した。
論文 参考訳(メタデータ) (2021-11-11T04:04:48Z) - High-Resolution Pelvic MRI Reconstruction Using a Generative Adversarial
Network with Attention and Cyclic Loss [3.4358954898228604]
超解像法はMRIの高速化に優れた性能を示した。
場合によっては、スキャン時間が長い場合でも高解像度画像を得るのは困難である。
我々は,周期的損失と注意機構を有するGAN(Generative Adversarial Network)を用いた新しい超解像法を提案した。
論文 参考訳(メタデータ) (2021-07-21T10:07:22Z) - Adaptive Gradient Balancing for UndersampledMRI Reconstruction and
Image-to-Image Translation [60.663499381212425]
本研究では,新しい適応勾配バランス手法を併用したwasserstein生成逆ネットワークを用いて,画質の向上を図る。
MRIでは、他の技術よりも鮮明な画像を生成する高品質の再構築を維持しながら、アーティファクトを最小限に抑えます。
論文 参考訳(メタデータ) (2021-04-05T13:05:22Z) - Dual-cycle Constrained Bijective VAE-GAN For Tagged-to-Cine Magnetic
Resonance Image Synthesis [11.697141493937021]
VAE-GANによるタグ付け-Cine MR画像合成手法を提案する。
このフレームワークは1,768,416,および1,560個の被検非依存のタグ付きMRIとシネMRIを用いて,訓練,検証,および試験を行った。
論文 参考訳(メタデータ) (2021-01-14T03:27:16Z) - Multi-Modality Generative Adversarial Networks with Tumor Consistency
Loss for Brain MR Image Synthesis [30.64847799586407]
1つのMRモードT2から3つの高品質MRモード(FLAIR, T1, T1ce)を同時に合成する多モード生成対向ネットワーク(MGAN)を提案する。
実験結果から, 合成画像の品質は, ベースラインモデル, pix2pixで合成した画像より優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-02T21:33:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。