論文の概要: Spach Transformer: Spatial and Channel-wise Transformer Based on Local
and Global Self-attentions for PET Image Denoising
- arxiv url: http://arxiv.org/abs/2209.03300v1
- Date: Wed, 7 Sep 2022 16:59:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-08 13:00:18.537645
- Title: Spach Transformer: Spatial and Channel-wise Transformer Based on Local
and Global Self-attentions for PET Image Denoising
- Title(参考訳): Spach Transformer:PET画像の局所的・グローバル的自己注意に基づく空間的・チャネル的変換器
- Authors: Se-In Jang, Tinsu Pan, Ye Li, Pedram Heidari, Junyu Chen, Quanzheng
Li, Kuang Gong
- Abstract要約: 近年,PET画像の品質向上のために,畳み込みニューラルネットワーク(CNN)が広く利用されている。
CNNは、受信フィールドが限られているため、長距離依存関係をうまくキャプチャできない。
本研究では,空間的・チャネル的に効率的なエンコーダ・デコーダ変換器であるSpach Transformerを提案する。
- 参考スコア(独自算出の注目度): 8.305534205195496
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Position emission tomography (PET) is widely used in clinics and research due
to its quantitative merits and high sensitivity, but suffers from low
signal-to-noise ratio (SNR). Recently convolutional neural networks (CNNs) have
been widely used to improve PET image quality. Though successful and efficient
in local feature extraction, CNN cannot capture long-range dependencies well
due to its limited receptive field. Global multi-head self-attention (MSA) is a
popular approach to capture long-range information. However, the calculation of
global MSA for 3D images has high computational costs. In this work, we
proposed an efficient spatial and channel-wise encoder-decoder transformer,
Spach Transformer, that can leverage spatial and channel information based on
local and global MSAs. Experiments based on datasets of different PET tracers,
i.e., $^{18}$F-FDG, $^{18}$F-ACBC, $^{18}$F-DCFPyL, and $^{68}$Ga-DOTATATE,
were conducted to evaluate the proposed framework. Quantitative results show
that the proposed Spach Transformer can achieve better performance than other
reference methods.
- Abstract(参考訳): ポジショルエミッショントモグラフィ(PET)はその量的メリットと高い感度のために臨床や研究に広く用いられているが、低信号-雑音比(SNR)に悩まされている。
近年,畳み込みニューラルネットワーク(cnns)がpet画像の品質向上に広く利用されている。
局所的な特徴抽出で成功し、効率的であるが、CNNはその限定された受容野のため、長距離依存をうまく捉えることはできない。
global multi-head self-attention (msa) は長距離情報を取り込む一般的な手法である。
しかし,3次元画像に対するグローバルmsaの計算には高い計算コストがかかる。
本研究では,局所的および大域的msaに基づく空間的およびチャネル的情報を活用できる,効率的な空間的およびチャネル的エンコーダ・デコーダ変換器spach transformerを提案する。
異なるPETトレーサのデータセット、すなわち$^{18}$F-FDG, $^{18}$F-ACBC, $^{18}$F-DCFPyL, $^{68}$Ga-DOTATATEを用いて提案フレームワークの評価を行った。
定量的な結果から,提案したSpach Transformerは,他の参照手法よりも優れた性能が得られることが示された。
関連論文リスト
- A lightweight residual network for unsupervised deformable image registration [2.7309692684728617]
本稿では, 並列拡張畳み込みブロックを組み込んだ残差U-Netを提案する。
本手法は患者間およびアトラスに基づくデータセットを用いて評価する。
論文 参考訳(メタデータ) (2024-06-14T07:20:49Z) - PET Tracer Conversion among Brain PET via Variable Augmented Invertible
Network [8.895830601854534]
画像投影のためのトレーサ変換可逆ニューラルネットワーク(TC-INN)を開発し,FDG画像を深層学習によりDOPA画像にマッピングする。
実験の結果,FDGとDOPAのマッピングでは優れた生成能を示し,PETトレーサ変換はトレーサの限られた応用において大きな可能性を示唆した。
論文 参考訳(メタデータ) (2023-11-01T12:04:33Z) - Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - TransGeo: Transformer Is All You Need for Cross-view Image
Geo-localization [81.70547404891099]
クロスビュー画像のジオローカライゼーションのためのCNNに基づく手法は,大域的相関をモデル化できない。
本稿では,これらの制約に対処するためのトランスジェオ (TransGeo) を提案する。
TransGeoは、都市と農村の両方のデータセットで最先端の結果を達成する。
論文 参考訳(メタデータ) (2022-03-31T21:19:41Z) - Unifying Global-Local Representations in Salient Object Detection with Transformer [55.23033277636774]
我々は、視覚変換器という新しいアテンションベースのエンコーダを有能な物体検出に導入する。
非常に浅い層でのグローバルビューでは、トランスフォーマーエンコーダはより局所的な表現を保持する。
提案手法は,5つのベンチマークにおいて,他のFCN法およびトランスフォーマー法よりも優れていた。
論文 参考訳(メタデータ) (2021-08-05T17:51:32Z) - RAMS-Trans: Recurrent Attention Multi-scale Transformer forFine-grained
Image Recognition [26.090419694326823]
地域注意の局所化と増幅は重要な要素であり、畳み込みニューラルネットワーク(CNN)ベースのアプローチによって多くの研究がなされている。
本稿では,変圧器の自己注意を用いて識別領域の注意を学習する,繰り返し注意型マルチスケール変圧器(RAMS-Trans)を提案する。
論文 参考訳(メタデータ) (2021-07-17T06:22:20Z) - Global Filter Networks for Image Classification [90.81352483076323]
本稿では,対数線形複雑度を持つ周波数領域における長期空間依存性を学習する,概念的に単純だが計算効率のよいアーキテクチャを提案する。
この結果から,GFNetはトランスフォーマー型モデルやCNNの効率,一般化能力,堅牢性において,非常に競争力のある代替手段となる可能性が示唆された。
論文 参考訳(メタデータ) (2021-07-01T17:58:16Z) - Swin-Unet: Unet-like Pure Transformer for Medical Image Segmentation [63.46694853953092]
Swin-Unetは、医用画像セグメンテーション用のUnetライクなトランスフォーマーである。
トークン化されたイメージパッチは、TransformerベースのU字型デコーダデコーダアーキテクチャに供給される。
論文 参考訳(メタデータ) (2021-05-12T09:30:26Z) - CoTr: Efficiently Bridging CNN and Transformer for 3D Medical Image
Segmentation [95.51455777713092]
畳み込みニューラルネットワーク(CNN)は、現代の3D医療画像セグメンテーションのデファクトスタンダードとなっている。
本稿では,bf畳み込みニューラルネットワークとbfトランスbf(cotr)を効率良く橋渡しし,正確な3次元医用画像分割を実現する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T13:34:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。