論文の概要: HiFormer: Hierarchical Multi-scale Representations Using Transformers
for Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2207.08518v1
- Date: Mon, 18 Jul 2022 11:30:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-19 21:17:35.385689
- Title: HiFormer: Hierarchical Multi-scale Representations Using Transformers
for Medical Image Segmentation
- Title(参考訳): HiFormer: 医療画像分割のためのトランスフォーマーを用いた階層的マルチスケール表現
- Authors: Moein Heidari, Amirhossein Kazerouni, Milad Soltany, Reza Azad, Ehsan
Khodapanah Aghdam, Julien Cohen-Adad, Dorit Merhof
- Abstract要約: HiFormerは、医用画像セグメンテーションのためのCNNとトランスフォーマーを効率的にブリッジする新しい方法である。
グローバルな特徴とローカルな特徴の微細融合を確保するため,エンコーダ・デコーダ構造のスキップ接続におけるDouble-Level Fusion (DLF)モジュールを提案する。
- 参考スコア(独自算出の注目度): 3.478921293603811
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Convolutional neural networks (CNNs) have been the consensus for medical
image segmentation tasks. However, they suffer from the limitation in modeling
long-range dependencies and spatial correlations due to the nature of
convolution operation. Although transformers were first developed to address
this issue, they fail to capture low-level features. In contrast, it is
demonstrated that both local and global features are crucial for dense
prediction, such as segmenting in challenging contexts. In this paper, we
propose HiFormer, a novel method that efficiently bridges a CNN and a
transformer for medical image segmentation. Specifically, we design two
multi-scale feature representations using the seminal Swin Transformer module
and a CNN-based encoder. To secure a fine fusion of global and local features
obtained from the two aforementioned representations, we propose a Double-Level
Fusion (DLF) module in the skip connection of the encoder-decoder structure.
Extensive experiments on various medical image segmentation datasets
demonstrate the effectiveness of HiFormer over other CNN-based,
transformer-based, and hybrid methods in terms of computational complexity, and
quantitative and qualitative results. Our code is publicly available at:
https://github.com/amirhossein-kz/HiFormer
- Abstract(参考訳): 畳み込みニューラルネットワーク(cnns)は、医療画像分割タスクのコンセンサスとなっている。
しかし、畳み込み操作の性質から、長距離依存と空間的相関をモデル化する際の制限に悩まされる。
この問題に最初に対処するためにトランスフォーマーが開発されたが、低レベルの特徴を捉えられなかった。
対照的に,局所的特徴と大域的特徴の両方が,難しい文脈におけるセグメント化など,密集した予測に不可欠であることを実証した。
本稿では,医用画像分割のためのCNNとトランスフォーマーを効率的にブリッジする新しい手法であるHiFormerを提案する。
具体的には、Swin TransformerモジュールとCNNベースのエンコーダを用いて、2つのマルチスケール特徴表現を設計する。
上記の2つの表現から得られる大域的特徴と局所的特徴の微細融合を確保するために,エンコーダ・デコーダ構造のスキップ接続における二重レベル融合(DLF)モジュールを提案する。
様々な医用画像セグメンテーションデータセットに対する大規模な実験は、計算複雑性と定量的および定性的な結果の観点から、他のCNNベース、トランスフォーマーベース、ハイブリッド手法に対するHiFormerの有効性を示す。
私たちのコードは、https://github.com/amirhossein-kz/HiFormerで公開されています。
関連論文リスト
- ParaTransCNN: Parallelized TransCNN Encoder for Medical Image
Segmentation [7.955518153976858]
本稿では,畳み込みニューラルネットワークとトランスフォーマーアーキテクチャを組み合わせた2次元特徴抽出手法を提案する。
特に小臓器では, セグメンテーションの精度が向上した。
論文 参考訳(メタデータ) (2024-01-27T05:58:36Z) - CATS v2: Hybrid encoders for robust medical segmentation [12.194439938007672]
畳み込みニューラルネットワーク(CNN)は、医用画像分割タスクにおいて強力な性能を示した。
しかし、畳み込みカーネルの視野が限られているため、CNNがグローバル情報を完全に表現することは困難である。
ローカル情報とグローバル情報の両方を活用するハイブリッドエンコーダを用いたCATS v2を提案する。
論文 参考訳(メタデータ) (2023-08-11T20:21:54Z) - CiT-Net: Convolutional Neural Networks Hand in Hand with Vision
Transformers for Medical Image Segmentation [10.20771849219059]
医用画像分割のための畳み込みニューラルネットワーク(CNN)とビジョントランスフォーマー(CiT-Net)のハイブリッドアーキテクチャを提案する。
我々のCit-Netは、一般的なSOTA法よりも優れた医用画像セグメンテーション結果を提供する。
論文 参考訳(メタデータ) (2023-06-06T03:22:22Z) - ConvFormer: Combining CNN and Transformer for Medical Image Segmentation [17.88894109620463]
医用画像分割のための階層型CNNとTransformerハイブリッドアーキテクチャであるConvFormerを提案する。
ゼロからトレーニングされたConvFormerは、さまざまなCNNやTransformerベースのアーキテクチャより優れ、最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2022-11-15T23:11:22Z) - ConvTransSeg: A Multi-resolution Convolution-Transformer Network for
Medical Image Segmentation [14.485482467748113]
ハイブリッドエンコーダ/デコーダセグメンテーションモデル(ConvTransSeg)を提案する。
特徴学習用エンコーダとして多層CNNと,セグメンテーション予測用デコーダとして対応する多層トランスフォーマーから構成される。
本手法は,モデル複雑度とメモリ消費率の低いDice係数と平均対称表面距離の測定値で最高の性能を実現する。
論文 参考訳(メタデータ) (2022-10-13T14:59:23Z) - MISSU: 3D Medical Image Segmentation via Self-distilling TransUNet [55.16833099336073]
医用画像セグメンテーションのためのトランスフォーマーベースUNetを提案する。
グローバルな意味情報と局所的な空間的詳細特徴を同時に学習する。
MISSUは従来の最先端手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2022-06-02T07:38:53Z) - nnFormer: Interleaved Transformer for Volumetric Segmentation [50.10441845967601]
本稿では,自己意図と畳み込みを実証的に組み合わせた,インターリーブアーキテクチャを備えた強力なセグメンテーションモデルであるnnFormerを紹介する。
nnFormerは、SynapseとACDCの2つの一般的なデータセットで、以前のTransformerベースのメソッドよりも大幅に改善されている。
論文 参考訳(メタデータ) (2021-09-07T17:08:24Z) - Image Fusion Transformer [75.71025138448287]
画像融合では、異なるセンサから得られた画像を融合して、情報強化された単一の画像を生成する。
近年,画像融合のための有意義な特徴を符号化するために,最先端の手法で畳み込みニューラルネットワーク(CNN)が採用されている。
我々は,画像融合変換器 (IFT) を提案する。
論文 参考訳(メタデータ) (2021-07-19T16:42:49Z) - Swin-Unet: Unet-like Pure Transformer for Medical Image Segmentation [63.46694853953092]
Swin-Unetは、医用画像セグメンテーション用のUnetライクなトランスフォーマーである。
トークン化されたイメージパッチは、TransformerベースのU字型デコーダデコーダアーキテクチャに供給される。
論文 参考訳(メタデータ) (2021-05-12T09:30:26Z) - CoTr: Efficiently Bridging CNN and Transformer for 3D Medical Image
Segmentation [95.51455777713092]
畳み込みニューラルネットワーク(CNN)は、現代の3D医療画像セグメンテーションのデファクトスタンダードとなっている。
本稿では,bf畳み込みニューラルネットワークとbfトランスbf(cotr)を効率良く橋渡しし,正確な3次元医用画像分割を実現する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T13:34:22Z) - TransUNet: Transformers Make Strong Encoders for Medical Image
Segmentation [78.01570371790669]
医用画像のセグメンテーションは医療システムの開発に必須の前提条件である。
様々な医療画像セグメンテーションタスクにおいて、U-Netとして知られるu字型アーキテクチャがデファクトスタンダードとなっている。
医用画像セグメンテーションの強力な代替手段として,トランスフォーマーとU-Netの両方を有効活用するTransUNetを提案する。
論文 参考訳(メタデータ) (2021-02-08T16:10:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。