論文の概要: Exploring Separable Attention for Multi-Contrast MR Image
Super-Resolution
- arxiv url: http://arxiv.org/abs/2109.01664v1
- Date: Fri, 3 Sep 2021 05:53:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-09 05:10:53.904792
- Title: Exploring Separable Attention for Multi-Contrast MR Image
Super-Resolution
- Title(参考訳): マルチコントラストMR画像超解像のための分離型注意探索
- Authors: Chun-Mei Feng, Yunlu Yan, Chengliang Liu, Huazhu Fu, Yong Xu, Ling
Shao
- Abstract要約: 本稿では,SANet という,分離可能なアテンションネットワーク (優先のアテンションと背景分離のアテンションを含む) を提案する。
補助コントラストの助けを借りて、前後方向の前景と背景領域を探索することができる。
これは、補助コントラストを用いて前景と背景領域を予測する分離可能なアテンションメカニズムを探索する最初のモデルである。
- 参考スコア(独自算出の注目度): 88.16655157395785
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Super-resolving the Magnetic Resonance (MR) image of a target contrast under
the guidance of the corresponding auxiliary contrast, which provides additional
anatomical information, is a new and effective solution for fast MR imaging.
However, current multi-contrast super-resolution (SR) methods tend to
concatenate different contrasts directly, ignoring their relationships in
different clues, \eg, in the foreground and background. In this paper, we
propose a separable attention network (comprising a foreground priority
attention and background separation attention), named SANet. Our method can
explore the foreground and background areas in the forward and reverse
directions with the help of the auxiliary contrast, enabling it to learn
clearer anatomical structures and edge information for the SR of a
target-contrast MR image. SANet provides three appealing benefits: (1) It is
the first model to explore a separable attention mechanism that uses the
auxiliary contrast to predict the foreground and background regions, diverting
more attention to refining any uncertain details between these regions and
correcting the fine areas in the reconstructed results. (2) A multi-stage
integration module is proposed to learn the response of multi-contrast fusion
at different stages, obtain the dependency between the fused features, and
improve their representation ability. (3) Extensive experiments with various
state-of-the-art multi-contrast SR methods on fastMRI and clinical \textit{in
vivo} datasets demonstrate the superiority of our model.
- Abstract(参考訳): 対応する補助コントラストの指導の下でターゲットコントラストの磁気共鳴(mr)像を超解くことは、さらに解剖学的情報を提供し、高速mrイメージングの新しい有効な解決策である。
しかし、現在のマルチコントラスト・スーパーレゾリューション(SR)法は、異なるコントラストを直接結合し、それらの関係を異なる手がかりである \eg を前景と背景に無視する傾向がある。
本稿では,前景優先注意と背景分離注意を組み合わせた,分離可能な注意ネットワークであるsanetを提案する。
提案手法は,前後方向の前景と背景領域を補助コントラストの助けを借りて探索し,ターゲットコントラストMR画像のSRに対して,より明確な解剖学的構造とエッジ情報を学習することができる。
サネットは、(1)補助コントラストを用いて前景と背景領域を予測し、これらの領域間の不確定な詳細を精査し、再構成された結果の細かい領域を補正する分離可能な注意機構を探求する最初のモデルである。
2)多段階統合モジュールは,異なる段階における複数コントラスト融合の応答を学習し,融合した特徴間の依存性を取得し,その表現能力を向上させる。
3) 高速MRIおよび臨床用 \textit{in vivo} データセットを用いた各種マルチコントラストSR法による拡張実験により,本モデルの有用性が示された。
関連論文リスト
- Towards Self-Supervised FG-SBIR with Unified Sample Feature Alignment and Multi-Scale Token Recycling [11.129453244307369]
FG-SBIRは、埋め込み空間におけるスケッチと対応する画像の距離を最小化することを目的としている。
両領域間のギャップを狭める効果的なアプローチを提案する。
主に、イントラサンプルとインターサンプルの両方を共有する統一的な相互情報共有を促進する。
論文 参考訳(メタデータ) (2024-06-17T13:49:12Z) - DuDoUniNeXt: Dual-domain unified hybrid model for single and
multi-contrast undersampled MRI reconstruction [24.937435059755288]
そこで我々はDuDoUniNeXtを提案する。DuDoUniNeXtは、不在、低品質、高品質な参照画像を含むシナリオに対応可能な、統合されたデュアルドメインMRI再構成ネットワークである。
実験により,提案モデルが最先端のSCモデルとMCモデルを大幅に上回ることを示した。
論文 参考訳(メタデータ) (2024-03-08T12:26:48Z) - Dual-Domain Multi-Contrast MRI Reconstruction with Synthesis-based
Fusion Network [8.721677700107639]
提案手法は,ディープラーニングに基づくアンダーサンプリング対象コントラストの最適化を容易にする。
本手法は,(1)対象コントラストに類似したデータを基準コントラストから合成すること,(2)マルチコントラストデータを登録してスキャン間運動を低減すること,(3)対象コントラストを再構成するための登録データを活用すること,の3つの重要なステップから構成される。
提案手法は,最先端のアルゴリズムと比較して,最大8倍の加速速度を示す。
論文 参考訳(メタデータ) (2023-12-01T15:40:26Z) - Compound Attention and Neighbor Matching Network for Multi-contrast MRI
Super-resolution [7.197850827700436]
MRIのマルチコントラスト超解像は、シングルイメージ超解像よりも優れた結果が得られる。
マルチコントラストMRI SRのための合成アテンションと近接マッチング(CANM-Net)を備えた新しいネットワークアーキテクチャを提案する。
CANM-Netは、ふりかえりと将来の実験において最先端のアプローチより優れている。
論文 参考訳(メタデータ) (2023-07-05T09:44:02Z) - CoCoNet: Coupled Contrastive Learning Network with Multi-level Feature
Ensemble for Multi-modality Image Fusion [72.8898811120795]
我々は、赤外線と可視画像の融合を実現するために、CoCoNetと呼ばれるコントラスト学習ネットワークを提案する。
本手法は,主観的評価と客観的評価の両面において,最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2022-11-20T12:02:07Z) - Model-Guided Multi-Contrast Deep Unfolding Network for MRI
Super-resolution Reconstruction [68.80715727288514]
MRI観察行列を用いて,反復型MGDUNアルゴリズムを新しいモデル誘導深部展開ネットワークに展開する方法を示す。
本稿では,医療画像SR再構成のためのモデルガイド型解釈可能なDeep Unfolding Network(MGDUN)を提案する。
論文 参考訳(メタデータ) (2022-09-15T03:58:30Z) - PC-GANs: Progressive Compensation Generative Adversarial Networks for
Pan-sharpening [50.943080184828524]
空間情報とスペクトル情報の漸進的補償によりMS画像のシャープ化を行うパンシャーピングの新しい2段階モデルを提案する。
モデル全体が三重GANで構成されており、特定のアーキテクチャに基づいて、三重GANを同時に訓練できるように、共同補償損失関数が設計されている。
論文 参考訳(メタデータ) (2022-07-29T03:09:21Z) - Transformer-empowered Multi-scale Contextual Matching and Aggregation
for Multi-contrast MRI Super-resolution [55.52779466954026]
マルチコントラスト・スーパーレゾリューション (SR) 再構成により, SR画像の高画質化が期待できる。
既存の手法では、これらの特徴をマッチングし、融合させる効果的なメカニズムが欠如している。
そこで本稿では,トランスフォーマーを利用したマルチスケールコンテキストマッチングとアグリゲーション技術を開発することで,これらの問題を解決する新しいネットワークを提案する。
論文 参考訳(メタデータ) (2022-03-26T01:42:59Z) - Multi-modal Aggregation Network for Fast MR Imaging [85.25000133194762]
我々は,完全サンプル化された補助モダリティから補完表現を発見できる,MANetという新しいマルチモーダル・アグリゲーション・ネットワークを提案する。
我々のMANetでは,完全サンプリングされた補助的およびアンアンサンプされた目標モダリティの表現は,特定のネットワークを介して独立に学習される。
私たちのMANetは、$k$-spaceドメインの周波数信号を同時に回復できるハイブリッドドメイン学習フレームワークに従います。
論文 参考訳(メタデータ) (2021-10-15T13:16:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。