論文の概要: Transformer and GAN Based Super-Resolution Reconstruction Network for
Medical Images
- arxiv url: http://arxiv.org/abs/2212.13068v1
- Date: Mon, 26 Dec 2022 09:52:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 15:17:42.685385
- Title: Transformer and GAN Based Super-Resolution Reconstruction Network for
Medical Images
- Title(参考訳): 医用画像のためのトランスフォーマーとGANを用いた超解像再構成ネットワーク
- Authors: Weizhi Du and Harvery Tian
- Abstract要約: 医用画像における超解像再構成がますます普及している(MRI)
本稿では,Transformer and Generative Adversarial Networks (T-GAN) を用いた低解像度画像から医用画像を再構成する深層学習戦略を提案する。
統合されたシステムは、より正確なテクスチャ情報を抽出し、グローバルな画像マッチングによって重要な位置に集中することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Because of the necessity to obtain high-quality images with minimal radiation
doses, such as in low-field magnetic resonance imaging, super-resolution
reconstruction in medical imaging has become more popular (MRI). However, due
to the complexity and high aesthetic requirements of medical imaging, image
super-resolution reconstruction remains a difficult challenge. In this paper,
we offer a deep learning-based strategy for reconstructing medical images from
low resolutions utilizing Transformer and Generative Adversarial Networks
(T-GAN). The integrated system can extract more precise texture information and
focus more on important locations through global image matching after
successfully inserting Transformer into the generative adversarial network for
picture reconstruction. Furthermore, we weighted the combination of content
loss, adversarial loss, and adversarial feature loss as the final multi-task
loss function during the training of our proposed model T-GAN. In comparison to
established measures like PSNR and SSIM, our suggested T-GAN achieves optimal
performance and recovers more texture features in super-resolution
reconstruction of MRI scanned images of the knees and belly.
- Abstract(参考訳): 低磁場磁気共鳴画像のような低放射線量で高画質の画像を得る必要があるため、医用画像の超高解像度再構成が一般的になっている(MRI)。
しかし, 医用画像の複雑化と審美的要求のため, 画像の超解像再構成は難しい課題である。
本稿では,Transformer and Generative Adversarial Networks (T-GAN) を用いた低解像度画像から医用画像の再構成を行う。
より正確なテクスチャ情報を抽出し、画像再構成のための生成的逆ネットワークにトランスフォーマーを挿入した後、グローバル画像マッチングにより、より重要な位置に集中することができる。
さらに,提案モデルT-GANのトレーニングにおいて,最終マルチタスク損失関数として,コンテンツ損失,敵対的損失,敵対的特徴損失の組み合わせを重み付けした。
提案するT-GANは,PSNRやSSIMなどの確立した指標と比較して最適な性能を示し,MRIスキャンした膝と腹の画像の超解像再構成において,よりテクスチャな特徴を回復する。
関連論文リスト
- Model-Guided Multi-Contrast Deep Unfolding Network for MRI
Super-resolution Reconstruction [68.80715727288514]
MRI観察行列を用いて,反復型MGDUNアルゴリズムを新しいモデル誘導深部展開ネットワークに展開する方法を示す。
本稿では,医療画像SR再構成のためのモデルガイド型解釈可能なDeep Unfolding Network(MGDUN)を提案する。
論文 参考訳(メタデータ) (2022-09-15T03:58:30Z) - Cross-Modality High-Frequency Transformer for MR Image Super-Resolution [100.50972513285598]
我々はTransformerベースのMR画像超解像フレームワークを構築するための初期の取り組みを構築した。
我々は、高周波構造とモード間コンテキストを含む2つの領域先行について考察する。
我々は,Cross-modality High- frequency Transformer (Cohf-T)と呼ばれる新しいTransformerアーキテクチャを構築し,低解像度画像の超解像化を実現する。
論文 参考訳(メタデータ) (2022-03-29T07:56:55Z) - Transformer-empowered Multi-scale Contextual Matching and Aggregation
for Multi-contrast MRI Super-resolution [55.52779466954026]
マルチコントラスト・スーパーレゾリューション (SR) 再構成により, SR画像の高画質化が期待できる。
既存の手法では、これらの特徴をマッチングし、融合させる効果的なメカニズムが欠如している。
そこで本稿では,トランスフォーマーを利用したマルチスケールコンテキストマッチングとアグリゲーション技術を開発することで,これらの問題を解決する新しいネットワークを提案する。
論文 参考訳(メタデータ) (2022-03-26T01:42:59Z) - HUMUS-Net: Hybrid unrolled multi-scale network architecture for
accelerated MRI reconstruction [38.0542877099235]
HUMUS-Netは、暗黙のバイアスと畳み込みの効率を、無ロールでマルチスケールのネットワークにおけるTransformerブロックのパワーと組み合わせたハイブリッドアーキテクチャである。
我々のネットワークは、最も広く公開されているMRIデータセットである高速MRIデータセット上で、新しい最先端技術を確立する。
論文 参考訳(メタデータ) (2022-03-15T19:26:29Z) - Multimodal-Boost: Multimodal Medical Image Super-Resolution using
Multi-Attention Network with Wavelet Transform [5.416279158834623]
対応する画像分解能の喪失は、医用画像診断の全体的な性能を低下させる。
ディープラーニングベースのシングルイメージスーパーレゾリューション(SISR)アルゴリズムは、全体的な診断フレームワークに革命をもたらした。
本研究は,低周波データから高頻度情報を学習する深層マルチアテンションモジュールを用いたGAN(Generative Adversarial Network)を提案する。
論文 参考訳(メタデータ) (2021-10-22T10:13:46Z) - Multi-modal Aggregation Network for Fast MR Imaging [85.25000133194762]
我々は,完全サンプル化された補助モダリティから補完表現を発見できる,MANetという新しいマルチモーダル・アグリゲーション・ネットワークを提案する。
我々のMANetでは,完全サンプリングされた補助的およびアンアンサンプされた目標モダリティの表現は,特定のネットワークを介して独立に学習される。
私たちのMANetは、$k$-spaceドメインの周波数信号を同時に回復できるハイブリッドドメイン学習フレームワークに従います。
論文 参考訳(メタデータ) (2021-10-15T13:16:59Z) - Multi-Modal MRI Reconstruction with Spatial Alignment Network [51.74078260367654]
臨床実践では、複数のコントラストを持つMRIが1つの研究で取得されるのが普通である。
近年の研究では、異なるコントラストやモダリティの冗長性を考慮すると、k空間にアンダーサンプリングされたMRIの目標モダリティは、完全にサンプリングされたシーケンスの助けを借りてよりよく再構成できることが示されている。
本稿では,空間アライメントネットワークと再構成を統合し,再構成対象のモダリティの質を向上させる。
論文 参考訳(メタデータ) (2021-08-12T08:46:35Z) - Adaptive Gradient Balancing for UndersampledMRI Reconstruction and
Image-to-Image Translation [60.663499381212425]
本研究では,新しい適応勾配バランス手法を併用したwasserstein生成逆ネットワークを用いて,画質の向上を図る。
MRIでは、他の技術よりも鮮明な画像を生成する高品質の再構築を維持しながら、アーティファクトを最小限に抑えます。
論文 参考訳(メタデータ) (2021-04-05T13:05:22Z) - Fine-grained MRI Reconstruction using Attentive Selection Generative
Adversarial Networks [0.0]
高品質mri再構成を実現するための新しい注意に基づく深層学習フレームワークを提案する。
我々は,gan(generative adversarial network)フレームワークに大規模文脈的特徴統合と注意選択を組み込んだ。
論文 参考訳(メタデータ) (2021-03-13T09:58:32Z) - Reference-based Texture transfer for Single Image Super-resolution of
Magnetic Resonance images [1.978587235008588]
平面内および平面間MRI超解像を用いた深層学習のための参照型マルチコントラスト・マルチコントラスト・テクスチャ・トランスファー戦略を提案する。
提案手法を異なる超解像アーキテクチャに適用し,PSNRとSSIMの4倍超解像に対する改善を観察する。
論文 参考訳(メタデータ) (2021-02-10T14:12:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。