論文の概要: Task Transformer Network for Joint MRI Reconstruction and
Super-Resolution
- arxiv url: http://arxiv.org/abs/2106.06742v1
- Date: Sat, 12 Jun 2021 10:59:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-19 19:20:28.244732
- Title: Task Transformer Network for Joint MRI Reconstruction and
Super-Resolution
- Title(参考訳): 関節MRI再建と超解像のためのタスクトランスネットワーク
- Authors: Chun-Mei Feng, Yunlu Yan, Huazhu Fu, Li Chen, and Yong Xu
- Abstract要約: 共同MRI再構成と超解像のためのエンドツーエンドタスクトランスフォーマネットワーク(T$2$Net)を提案する。
我々のフレームワークは,2つのサブブランチに分割した再構成と超解像を組み合わせ,その特徴をクエリとキーとして表現する。
実験結果から,我々のマルチタスクモデルは先進的な逐次手法よりも優れていた。
- 参考スコア(独自算出の注目度): 35.2868027332665
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The core problem of Magnetic Resonance Imaging (MRI) is the trade off between
acceleration and image quality. Image reconstruction and super-resolution are
two crucial techniques in Magnetic Resonance Imaging (MRI). Current methods are
designed to perform these tasks separately, ignoring the correlations between
them. In this work, we propose an end-to-end task transformer network
(T$^2$Net) for joint MRI reconstruction and super-resolution, which allows
representations and feature transmission to be shared between multiple task to
achieve higher-quality, super-resolved and motion-artifacts-free images from
highly undersampled and degenerated MRI data. Our framework combines both
reconstruction and super-resolution, divided into two sub-branches, whose
features are expressed as queries and keys. Specifically, we encourage joint
feature learning between the two tasks, thereby transferring accurate task
information. We first use two separate CNN branches to extract task-specific
features. Then, a task transformer module is designed to embed and synthesize
the relevance between the two tasks. Experimental results show that our
multi-task model significantly outperforms advanced sequential methods, both
quantitatively and qualitatively.
- Abstract(参考訳): 磁気共鳴イメージング(MRI)の中核的な問題は、加速度と画質のトレードオフである。
画像再構成と超解像は磁気共鳴イメージング(MRI)において2つの重要な技術である。
現在の手法はこれらのタスクを個別に実行するように設計されている。
本研究では,mriデータから高画質,高分解能,高分解能,高分解能画像を実現するために,複数のタスク間で表現と特徴伝達を共有できる,関節mri再構成と超解像のためのエンドツーエンドタスクトランスフォーマネットワーク(t$^2$net)を提案する。
本フレームワークでは,2つのサブブランチに分割し,その特徴をクエリとキーとして表現する。
具体的には,2つのタスク間の共同特徴学習を奨励し,正確なタスク情報を伝達する。
まず2つのCNNブランチを使用してタスク固有の特徴を抽出する。
次に、タスク変換モジュールを2つのタスク間の関連性を埋め込んで合成するように設計する。
実験結果から,我々のマルチタスクモデルは,定量的および定性的に,高度な逐次手法よりも優れていた。
関連論文リスト
- Dual Arbitrary Scale Super-Resolution for Multi-Contrast MRI [23.50915512118989]
マルチコントラスト超解像 (SR) 再構成により, SR画像の高画質化が期待できる。
放射線技師は、固定スケールではなく任意のスケールでMR画像を拡大することに慣れている。
本稿では,Dual-ArbNetと呼ばれる,暗黙的ニューラル表現に基づくマルチコントラストMRI超解像法を提案する。
論文 参考訳(メタデータ) (2023-07-05T14:43:26Z) - Compound Attention and Neighbor Matching Network for Multi-contrast MRI
Super-resolution [7.197850827700436]
MRIのマルチコントラスト超解像は、シングルイメージ超解像よりも優れた結果が得られる。
マルチコントラストMRI SRのための合成アテンションと近接マッチング(CANM-Net)を備えた新しいネットワークアーキテクチャを提案する。
CANM-Netは、ふりかえりと将来の実験において最先端のアプローチより優れている。
論文 参考訳(メタデータ) (2023-07-05T09:44:02Z) - Spatial and Modal Optimal Transport for Fast Cross-Modal MRI Reconstruction [54.19448988321891]
本稿では,T1重み付き画像(T1WIs)を補助モダリティとして活用し,T2WIsの取得を高速化するエンド・ツー・エンドのディープラーニングフレームワークを提案する。
最適輸送(OT)を用いてT1WIを整列させてT2WIを合成し、クロスモーダル合成を行う。
再構成されたT2WIと合成されたT2WIがT2画像多様体に近づき、繰り返しが増加することを示す。
論文 参考訳(メタデータ) (2023-05-04T12:20:51Z) - CDDFuse: Correlation-Driven Dual-Branch Feature Decomposition for
Multi-Modality Image Fusion [138.40422469153145]
本稿では,CDDFuse(Relationed-Driven Feature Decomposition Fusion)ネットワークを提案する。
近赤外可視画像融合や医用画像融合など,複数の融合タスクにおいてCDDFuseが有望な結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-11-26T02:40:28Z) - Flexible Alignment Super-Resolution Network for Multi-Contrast MRI [7.727046305845654]
超解像は、より正確な医療分析のために低解像度の画像を前処理する上で重要な役割を担っている。
マルチコントラスト磁気共鳴画像のためのフレキシブルアライメント・スーパーリゾリューション・ネットワーク(FASR-Net)を提案する。
論文 参考訳(メタデータ) (2022-10-07T11:07:20Z) - Model-Guided Multi-Contrast Deep Unfolding Network for MRI
Super-resolution Reconstruction [68.80715727288514]
MRI観察行列を用いて,反復型MGDUNアルゴリズムを新しいモデル誘導深部展開ネットワークに展開する方法を示す。
本稿では,医療画像SR再構成のためのモデルガイド型解釈可能なDeep Unfolding Network(MGDUN)を提案する。
論文 参考訳(メタデータ) (2022-09-15T03:58:30Z) - Cross-Modality High-Frequency Transformer for MR Image Super-Resolution [100.50972513285598]
我々はTransformerベースのMR画像超解像フレームワークを構築するための初期の取り組みを構築した。
我々は、高周波構造とモード間コンテキストを含む2つの領域先行について考察する。
我々は,Cross-modality High- frequency Transformer (Cohf-T)と呼ばれる新しいTransformerアーキテクチャを構築し,低解像度画像の超解像化を実現する。
論文 参考訳(メタデータ) (2022-03-29T07:56:55Z) - Transformer-empowered Multi-scale Contextual Matching and Aggregation
for Multi-contrast MRI Super-resolution [55.52779466954026]
マルチコントラスト・スーパーレゾリューション (SR) 再構成により, SR画像の高画質化が期待できる。
既存の手法では、これらの特徴をマッチングし、融合させる効果的なメカニズムが欠如している。
そこで本稿では,トランスフォーマーを利用したマルチスケールコンテキストマッチングとアグリゲーション技術を開発することで,これらの問題を解決する新しいネットワークを提案する。
論文 参考訳(メタデータ) (2022-03-26T01:42:59Z) - HUMUS-Net: Hybrid unrolled multi-scale network architecture for
accelerated MRI reconstruction [38.0542877099235]
HUMUS-Netは、暗黙のバイアスと畳み込みの効率を、無ロールでマルチスケールのネットワークにおけるTransformerブロックのパワーと組み合わせたハイブリッドアーキテクチャである。
我々のネットワークは、最も広く公開されているMRIデータセットである高速MRIデータセット上で、新しい最先端技術を確立する。
論文 参考訳(メタデータ) (2022-03-15T19:26:29Z) - Rich CNN-Transformer Feature Aggregation Networks for Super-Resolution [50.10987776141901]
近年の視覚変換器と自己注意は,様々なコンピュータビジョンタスクにおいて有望な成果を上げている。
我々は,CNNの局所的特徴とトランスフォーマーが捉えた長距離依存性を活用する,超解像(SR)タスクのための効果的なハイブリッドアーキテクチャを提案する。
提案手法は,多数のベンチマークデータセットから最先端のSR結果を得る。
論文 参考訳(メタデータ) (2022-03-15T06:52:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。