論文の概要: SDLFormer: A Sparse and Dense Locality-enhanced Transformer for
Accelerated MR Image Reconstruction
- arxiv url: http://arxiv.org/abs/2308.04262v1
- Date: Tue, 8 Aug 2023 13:59:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-09 12:48:27.061673
- Title: SDLFormer: A Sparse and Dense Locality-enhanced Transformer for
Accelerated MR Image Reconstruction
- Title(参考訳): SDLFormer: 高速MR画像再構成のための疎高密度局所変換器
- Authors: Rahul G.S., Sriprabha Ramnarayanan, Mohammad Al Fahim, Keerthi Ram,
Preejith S.P, and Mohanasankar Sivaprakasam
- Abstract要約: 本稿では,拡張型アテンション機構と畳み込みを統合したウィンドウベーストランスフォーマーネットワークを提案する。
提案するネットワークは,近距離画素関係を強化するため,拡張された,密集した周辺注目変換器で構成されている。
その結果,PSNRでは約1.40dB,SSIMでは約0.028の改善率を示した。
- 参考スコア(独自算出の注目度): 1.1083289076967895
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Transformers have emerged as viable alternatives to convolutional neural
networks owing to their ability to learn non-local region relationships in the
spatial domain. The self-attention mechanism of the transformer enables
transformers to capture long-range dependencies in the images, which might be
desirable for accelerated MRI image reconstruction as the effect of
undersampling is non-local in the image domain. Despite its computational
efficiency, the window-based transformers suffer from restricted receptive
fields as the dependencies are limited to within the scope of the image
windows. We propose a window-based transformer network that integrates dilated
attention mechanism and convolution for accelerated MRI image reconstruction.
The proposed network consists of dilated and dense neighborhood attention
transformers to enhance the distant neighborhood pixel relationship and
introduce depth-wise convolutions within the transformer module to learn
low-level translation invariant features for accelerated MRI image
reconstruction. The proposed model is trained in a self-supervised manner. We
perform extensive experiments for multi-coil MRI acceleration for coronal PD,
coronal PDFS and axial T2 contrasts with 4x and 5x under-sampling in
self-supervised learning based on k-space splitting. We compare our method
against other reconstruction architectures and the parallel domain
self-supervised learning baseline. Results show that the proposed model
exhibits improvement margins of (i) around 1.40 dB in PSNR and around 0.028 in
SSIM on average over other architectures (ii) around 1.44 dB in PSNR and around
0.029 in SSIM over parallel domain self-supervised learning. The code is
available at https://github.com/rahul-gs-16/sdlformer.git
- Abstract(参考訳): トランスフォーマーは、空間領域における非局所的な領域関係を学習する能力のため、畳み込みニューラルネットワークの有効な代替手段として登場した。
トランスの自己アテンション機構により、トランスフォーマーは画像の長距離依存性を捉えることができ、画像領域におけるアンダーサンプリングの効果が非局所的であるため、mri画像再構成の高速化に望ましい。
計算効率にも拘わらず、ウィンドウベースのトランスフォーマーはイメージウィンドウの範囲内に限定されるため、レセプティブフィールドの制限を受ける。
拡張注意機構と畳み込み機構を統合し,mri画像再構成を高速化する窓型トランスフォーマーネットワークを提案する。
提案手法は,mri画像再構成のための低レベル変換不変特性を学習するために,遠方近傍の画素関係を強化し,トランスフォーマモジュール内に奥行き方向畳み込みを導入するために,拡張および密集した近傍注意トランスから構成する。
提案モデルは, 自己監督的に訓練される。
k-space スプリッティングに基づく自己教師型学習における4xおよび5xアンダーサンプリングと対比した冠状骨PD, 冠状骨PDFS, 軸方向T2に対する多コイルMRIアクセラレーションの広範な実験を行った。
本手法は他の再構築アーキテクチャと並列ドメイン自己教師付き学習ベースラインとの比較を行った。
その結果,提案モデルが改善率を示すことがわかった。
(i)PSNRでは約1.40dB、他のアーキテクチャでは平均0.028dBである。
(ii)psnrでは約1.44db、並列ドメイン自己教師付き学習では約0.029db。
コードはhttps://github.com/rahul-gs-16/sdlformer.gitで入手できる。
関連論文リスト
- Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - Optimizing Vision Transformers for Medical Image Segmentation and
Few-Shot Domain Adaptation [11.690799827071606]
我々はCS-Unet(Convolutional Swin-Unet)トランスフォーマーブロックを提案し、パッチ埋め込み、プロジェクション、フィードフォワードネットワーク、サンプリングおよびスキップ接続に関連する設定を最適化する。
CS-Unetはゼロからトレーニングすることができ、各機能プロセスフェーズにおける畳み込みの優位性を継承する。
実験によると、CS-Unetは事前トレーニングなしで、パラメータが少ない2つの医療用CTおよびMRIデータセットに対して、最先端の他のデータセットを大きなマージンで上回っている。
論文 参考訳(メタデータ) (2022-10-14T19:18:52Z) - Accurate Image Restoration with Attention Retractable Transformer [50.05204240159985]
画像復元のためのアテンション・リトラクタブル・トランス (ART) を提案する。
ARTはネットワーク内の密集モジュールと疎開モジュールの両方を提示する。
画像超解像、デノナイジング、JPEG圧縮アーティファクト削減タスクについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-10-04T07:35:01Z) - Magic ELF: Image Deraining Meets Association Learning and Transformer [63.761812092934576]
本稿では,CNN と Transformer を統合化して,画像デライニングにおける学習のメリットを活用することを目的とする。
降雨除去と背景復旧を関連づける新しいマルチインプット・アテンション・モジュール (MAM) を提案する。
提案手法(ELF)は,最先端手法(MPRNet)を平均0.25dB向上させる。
論文 参考訳(メタデータ) (2022-07-21T12:50:54Z) - Multi-head Cascaded Swin Transformers with Attention to k-space Sampling
Pattern for Accelerated MRI Reconstruction [16.44971774468092]
我々は,McSTRA(Multi-head Cascaded Swin Transformer)と題する,物理学に基づくスタンドアロン(畳み込みフリー)トランスモデルを提案する。
当モデルでは, 画像と定量的に, 最先端のMRI再建法より有意に優れていた。
論文 参考訳(メタデータ) (2022-07-18T07:21:56Z) - Symmetric Transformer-based Network for Unsupervised Image Registration [4.258536928793156]
本稿では,従来のトランスフォーマーのパラメータを低減する,畳み込みに基づく効率的なマルチヘッド自己アテンション(CEMSA)ブロックを提案する。
提案したCEMSAに基づいて,新しいSymmetric Transformer-based model(SymTrans)を提案する。
実験結果から,提案手法は画像登録における最先端性能を実現することが示された。
論文 参考訳(メタデータ) (2022-04-28T15:45:09Z) - Swin Transformer for Fast MRI [12.28925347961542]
SwinMRは、高速MRI再構成のための新しいSwin変換器ベースの方法である。
ネットワークは入力モジュール(IM)、特徴抽出モジュール(FE)、出力モジュール(OM)で構成される。
論文 参考訳(メタデータ) (2022-01-10T09:32:32Z) - CSformer: Bridging Convolution and Transformer for Compressive Sensing [65.22377493627687]
本稿では,CNNからの詳細な空間情報を活用するためのハイブリッドフレームワークと,表現学習の強化を目的としたトランスフォーマーが提供するグローバルコンテキストを統合することを提案する。
提案手法は、適応的なサンプリングとリカバリからなるエンドツーエンドの圧縮画像センシング手法である。
実験により, 圧縮センシングにおける専用トランスアーキテクチャの有効性が示された。
論文 参考訳(メタデータ) (2021-12-31T04:37:11Z) - GLiT: Neural Architecture Search for Global and Local Image Transformer [114.8051035856023]
画像認識のためのトランスフォーマーアーキテクチャを改良するために,最初のニューラルアーキテクチャサーチ(NAS)手法を提案する。
画像分類では,ResNetファミリーやベースラインのViTよりも,より差別的で効率的なトランスフォーマー変種を見つけることができる。
論文 参考訳(メタデータ) (2021-07-07T00:48:09Z) - Dual-Octave Convolution for Accelerated Parallel MR Image Reconstruction [75.35200719645283]
本稿では,実物と虚構の両方から,多次元空間周波数特徴を学習可能なDual-Octave Convolution(Dual-OctConv)を提案する。
オクターブ畳み込みによる複雑な操作を改質することで、MR画像のよりリッチな表現を捉える強力な能力を示す。
論文 参考訳(メタデータ) (2021-04-12T10:51:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。