論文の概要: Swin-Unet: Unet-like Pure Transformer for Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2105.05537v1
- Date: Wed, 12 May 2021 09:30:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-13 21:56:10.084100
- Title: Swin-Unet: Unet-like Pure Transformer for Medical Image Segmentation
- Title(参考訳): Swin-Unet:Unetライクな医用画像セグメンテーション用Pure Transformer
- Authors: Hu Cao, Yueyue Wang, Joy Chen, Dongsheng Jiang, Xiaopeng Zhang, Qi
Tian, Manning Wang
- Abstract要約: Swin-Unetは、医用画像セグメンテーション用のUnetライクなトランスフォーマーである。
トークン化されたイメージパッチは、TransformerベースのU字型デコーダデコーダアーキテクチャに供給される。
- 参考スコア(独自算出の注目度): 63.46694853953092
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the past few years, convolutional neural networks (CNNs) have achieved
milestones in medical image analysis. Especially, the deep neural networks
based on U-shaped architecture and skip-connections have been widely applied in
a variety of medical image tasks. However, although CNN has achieved excellent
performance, it cannot learn global and long-range semantic information
interaction well due to the locality of the convolution operation. In this
paper, we propose Swin-Unet, which is an Unet-like pure Transformer for medical
image segmentation. The tokenized image patches are fed into the
Transformer-based U-shaped Encoder-Decoder architecture with skip-connections
for local-global semantic feature learning. Specifically, we use hierarchical
Swin Transformer with shifted windows as the encoder to extract context
features. And a symmetric Swin Transformer-based decoder with patch expanding
layer is designed to perform the up-sampling operation to restore the spatial
resolution of the feature maps. Under the direct down-sampling and up-sampling
of the inputs and outputs by 4x, experiments on multi-organ and cardiac
segmentation tasks demonstrate that the pure Transformer-based U-shaped
Encoder-Decoder network outperforms those methods with full-convolution or the
combination of transformer and convolution. The codes and trained models will
be publicly available at https://github.com/HuCaoFighting/Swin-Unet.
- Abstract(参考訳): 過去数年間、畳み込みニューラルネットワーク(CNN)は医療画像解析においてマイルストーンを達成した。
特に、U字型アーキテクチャとスキップ接続に基づくディープニューラルネットワークは、様々な医療画像タスクに広く応用されている。
しかし、CNNは優れた性能を発揮しているが、畳み込み操作の局所性のため、グローバルと長距離のセマンティック情報相互作用をうまく学べない。
本稿では,医療画像分割のためのunetライクなトランスフォーマであるswin-unetを提案する。
トークン化されたイメージパッチは、ローカルグローバルセマンティック特徴学習のためのスキップ接続を備えたトランスフォーマベースのu字型エンコーダ-デコーダアーキテクチャに供給される。
具体的には,コンテキスト特徴を抽出するエンコーダとしてシフトウインドウを用いた階層型スウィントランスを用いた。
また、パッチ展開層を有する対称スウィントランスフォーマーベースのデコーダは、特徴写像の空間解像度を復元するためのアップサンプリング操作を行うように設計されている。
入力と出力の4倍の直接サンプリングとアップサンプリングの下では、純粋なトランスフォーマーベースのU字型エンコーダ・デコーダネットワークがフルコンボリュータとコンボリュータの組み合わせでこれらの手法より優れていることを示す。
コードとトレーニングされたモデルはhttps://github.com/HuCaoFighting/Swin-Unet.comで公開される。
関連論文リスト
- ConvTransSeg: A Multi-resolution Convolution-Transformer Network for
Medical Image Segmentation [14.485482467748113]
ハイブリッドエンコーダ/デコーダセグメンテーションモデル(ConvTransSeg)を提案する。
特徴学習用エンコーダとして多層CNNと,セグメンテーション予測用デコーダとして対応する多層トランスフォーマーから構成される。
本手法は,モデル複雑度とメモリ消費率の低いDice係数と平均対称表面距離の測定値で最高の性能を実現する。
論文 参考訳(メタデータ) (2022-10-13T14:59:23Z) - HiFormer: Hierarchical Multi-scale Representations Using Transformers
for Medical Image Segmentation [3.478921293603811]
HiFormerは、医用画像セグメンテーションのためのCNNとトランスフォーマーを効率的にブリッジする新しい方法である。
グローバルな特徴とローカルな特徴の微細融合を確保するため,エンコーダ・デコーダ構造のスキップ接続におけるDouble-Level Fusion (DLF)モジュールを提案する。
論文 参考訳(メタデータ) (2022-07-18T11:30:06Z) - MISSU: 3D Medical Image Segmentation via Self-distilling TransUNet [55.16833099336073]
医用画像セグメンテーションのためのトランスフォーマーベースUNetを提案する。
グローバルな意味情報と局所的な空間的詳細特徴を同時に学習する。
MISSUは従来の最先端手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2022-06-02T07:38:53Z) - nnFormer: Interleaved Transformer for Volumetric Segmentation [50.10441845967601]
本稿では,自己意図と畳み込みを実証的に組み合わせた,インターリーブアーキテクチャを備えた強力なセグメンテーションモデルであるnnFormerを紹介する。
nnFormerは、SynapseとACDCの2つの一般的なデータセットで、以前のTransformerベースのメソッドよりも大幅に改善されている。
論文 参考訳(メタデータ) (2021-09-07T17:08:24Z) - UTNet: A Hybrid Transformer Architecture for Medical Image Segmentation [6.646135062704341]
トランスフォーマーアーキテクチャは多くの自然言語処理タスクで成功している。
医用画像セグメンテーションを強化するために,自己意識を畳み込みニューラルネットワークに統合する強力なハイブリッドトランスフォーマーアーキテクチャUTNetを提案する。
論文 参考訳(メタデータ) (2021-07-02T00:56:27Z) - DS-TransUNet:Dual Swin Transformer U-Net for Medical Image Segmentation [18.755217252996754]
我々はDual Swin Transformer U-Net(DS-TransUNet)と呼ばれる新しいディープ・メディカル・イメージ・セグメンテーション・フレームワークを提案する。
従来のTransformerベースのソリューションとは異なり、提案されたDS-TransUNetは、まずSwin Transformerをベースとしたデュアルスケールエンコーダワークを採用し、異なる意味尺度の粗くきめ細かな特徴表現を抽出する。
DS-TransUNetのコアコンポーネントであるTransformer Interactive Fusion (TIF)モジュールは,自己保持機構を通じて異なるスケールの特徴間のグローバルな依存関係を効果的に確立するために提案されている。
論文 参考訳(メタデータ) (2021-06-12T08:37:17Z) - CoTr: Efficiently Bridging CNN and Transformer for 3D Medical Image
Segmentation [95.51455777713092]
畳み込みニューラルネットワーク(CNN)は、現代の3D医療画像セグメンテーションのデファクトスタンダードとなっている。
本稿では,bf畳み込みニューラルネットワークとbfトランスbf(cotr)を効率良く橋渡しし,正確な3次元医用画像分割を実現する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T13:34:22Z) - TransUNet: Transformers Make Strong Encoders for Medical Image
Segmentation [78.01570371790669]
医用画像のセグメンテーションは医療システムの開発に必須の前提条件である。
様々な医療画像セグメンテーションタスクにおいて、U-Netとして知られるu字型アーキテクチャがデファクトスタンダードとなっている。
医用画像セグメンテーションの強力な代替手段として,トランスフォーマーとU-Netの両方を有効活用するTransUNetを提案する。
論文 参考訳(メタデータ) (2021-02-08T16:10:50Z) - Rethinking Semantic Segmentation from a Sequence-to-Sequence Perspective
with Transformers [149.78470371525754]
セマンティックセグメンテーションをシーケンスからシーケンスへの予測タスクとして扱う。
具体的には、イメージをパッチのシーケンスとしてエンコードするために純粋なトランスをデプロイします。
トランスのすべての層でモデル化されたグローバルコンテキストにより、このエンコーダは、SETR(SEgmentation TRansformer)と呼ばれる強力なセグメンテーションモデルを提供するための単純なデコーダと組み合わせることができる。
SETRはADE20K(50.28% mIoU)、Pascal Context(55.83% mIoU)、およびCityscapesの競争力のある結果に関する最新技術を達成している。
論文 参考訳(メタデータ) (2020-12-31T18:55:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。