論文の概要: ConvTransSeg: A Multi-resolution Convolution-Transformer Network for
Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2210.07072v1
- Date: Thu, 13 Oct 2022 14:59:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 14:58:34.918467
- Title: ConvTransSeg: A Multi-resolution Convolution-Transformer Network for
Medical Image Segmentation
- Title(参考訳): convtransseg:医療画像分割のためのマルチレゾリューション畳み込み変換ネットワーク
- Authors: Zhendi Gong, Andrew P. French, Guoping Qiu, Xin Chen
- Abstract要約: ハイブリッドエンコーダ/デコーダセグメンテーションモデル(ConvTransSeg)を提案する。
特徴学習用エンコーダとして多層CNNと,セグメンテーション予測用デコーダとして対応する多層トランスフォーマーから構成される。
本手法は,モデル複雑度とメモリ消費率の低いDice係数と平均対称表面距離の測定値で最高の性能を実現する。
- 参考スコア(独自算出の注目度): 14.485482467748113
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Convolutional neural networks (CNNs) achieved the state-of-the-art
performance in medical image segmentation due to their ability to extract
highly complex feature representations. However, it is argued in recent studies
that traditional CNNs lack the intelligence to capture long-term dependencies
of different image regions. Following the success of applying Transformer
models on natural language processing tasks, the medical image segmentation
field has also witnessed growing interest in utilizing Transformers, due to
their ability to capture long-range contextual information. However, unlike
CNNs, Transformers lack the ability to learn local feature representations.
Thus, to fully utilize the advantages of both CNNs and Transformers, we propose
a hybrid encoder-decoder segmentation model (ConvTransSeg). It consists of a
multi-layer CNN as the encoder for feature learning and the corresponding
multi-level Transformer as the decoder for segmentation prediction. The encoder
and decoder are interconnected in a multi-resolution manner. We compared our
method with many other state-of-the-art hybrid CNN and Transformer segmentation
models on binary and multiple class image segmentation tasks using several
public medical image datasets, including skin lesion, polyp, cell and brain
tissue. The experimental results show that our method achieves overall the best
performance in terms of Dice coefficient and average symmetric surface distance
measures with low model complexity and memory consumption. In contrast to most
Transformer-based methods that we compared, our method does not require the use
of pre-trained models to achieve similar or better performance. The code is
freely available for research purposes on Github: (the link will be added upon
acceptance).
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は、非常に複雑な特徴表現を抽出する能力により、医療画像セグメンテーションにおける最先端のパフォーマンスを達成した。
しかし、近年の研究では、従来のCNNは画像領域の長期依存を捉える知性に欠けていると論じられている。
自然言語処理タスクにトランスフォーマーモデルを適用する成功に続いて、医療画像セグメンテーション分野は、長距離コンテキスト情報をキャプチャする能力のため、トランスフォーマーの利用への関心が高まっている。
しかし、CNNとは異なり、Transformerにはローカルな特徴表現を学ぶ能力がない。
そこで我々は,CNNとTransformerの両方の利点をフル活用するために,ハイブリッドエンコーダデコーダセグメンテーションモデル(ConvTransSeg)を提案する。
特徴学習用エンコーダとして多層CNNと,セグメンテーション予測用デコーダとして対応する多層トランスフォーマーから構成される。
エンコーダとデコーダはマルチレゾリューション方式で相互接続される。
皮膚病変,ポリープ,細胞,脳組織などの医療用画像データセットを用いて,2級および複数級画像セグメンテーションタスクにおける最新のcnnおよびtransformerセグメンテーションモデルと比較した。
実験の結果,dice係数と平均対称表面距離測定値において,モデル複雑性とメモリ消費の低減により,最適性能が得られた。
私たちが比較したほとんどのTransformerベースの手法とは対照的に、我々の手法は類似またはより良い性能を達成するために事前訓練されたモデルを使用する必要はない。
コードはGithubで研究目的で無償公開されている(リンクは受理時に追加される)。
関連論文リスト
- ParaTransCNN: Parallelized TransCNN Encoder for Medical Image
Segmentation [7.955518153976858]
本稿では,畳み込みニューラルネットワークとトランスフォーマーアーキテクチャを組み合わせた2次元特徴抽出手法を提案する。
特に小臓器では, セグメンテーションの精度が向上した。
論文 参考訳(メタデータ) (2024-01-27T05:58:36Z) - ConvFormer: Combining CNN and Transformer for Medical Image Segmentation [17.88894109620463]
医用画像分割のための階層型CNNとTransformerハイブリッドアーキテクチャであるConvFormerを提案する。
ゼロからトレーニングされたConvFormerは、さまざまなCNNやTransformerベースのアーキテクチャより優れ、最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2022-11-15T23:11:22Z) - Cats: Complementary CNN and Transformer Encoders for Segmentation [13.288195115791758]
生体医用画像分割のための二重エンコーダを用いたモデルを提案する。
畳み込みエンコーダと変換器の情報を融合してデコーダに渡して結果を得る。
提案手法は,各タスクにトランスフォーマーと非変換器を併用した最先端モデルと比較して,ボード全体のDiceスコアを高くする。
論文 参考訳(メタデータ) (2022-08-24T14:25:11Z) - HiFormer: Hierarchical Multi-scale Representations Using Transformers
for Medical Image Segmentation [3.478921293603811]
HiFormerは、医用画像セグメンテーションのためのCNNとトランスフォーマーを効率的にブリッジする新しい方法である。
グローバルな特徴とローカルな特徴の微細融合を確保するため,エンコーダ・デコーダ構造のスキップ接続におけるDouble-Level Fusion (DLF)モジュールを提案する。
論文 参考訳(メタデータ) (2022-07-18T11:30:06Z) - MISSU: 3D Medical Image Segmentation via Self-distilling TransUNet [55.16833099336073]
医用画像セグメンテーションのためのトランスフォーマーベースUNetを提案する。
グローバルな意味情報と局所的な空間的詳細特徴を同時に学習する。
MISSUは従来の最先端手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2022-06-02T07:38:53Z) - Restormer: Efficient Transformer for High-Resolution Image Restoration [118.9617735769827]
畳み込みニューラルネットワーク(CNN)は、大規模データから一般化可能な画像の事前学習をうまく行う。
トランスフォーマーは、自然言語とハイレベルな視覚タスクにおいて、顕著なパフォーマンス向上を示している。
我々のモデルであるRecovery Transformer (Restormer) は、いくつかの画像復元タスクにおいて最先端の結果を得る。
論文 参考訳(メタデータ) (2021-11-18T18:59:10Z) - Swin-Unet: Unet-like Pure Transformer for Medical Image Segmentation [63.46694853953092]
Swin-Unetは、医用画像セグメンテーション用のUnetライクなトランスフォーマーである。
トークン化されたイメージパッチは、TransformerベースのU字型デコーダデコーダアーキテクチャに供給される。
論文 参考訳(メタデータ) (2021-05-12T09:30:26Z) - CoTr: Efficiently Bridging CNN and Transformer for 3D Medical Image
Segmentation [95.51455777713092]
畳み込みニューラルネットワーク(CNN)は、現代の3D医療画像セグメンテーションのデファクトスタンダードとなっている。
本稿では,bf畳み込みニューラルネットワークとbfトランスbf(cotr)を効率良く橋渡しし,正確な3次元医用画像分割を実現する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T13:34:22Z) - Medical Transformer: Gated Axial-Attention for Medical Image
Segmentation [73.98974074534497]
医用画像分割タスクにおけるトランスフォーマティブネットワークアーキテクチャの利用可能性について検討する。
セルフアテンションモジュールに追加の制御機構を導入することで,既存のアーキテクチャを拡張するGated Axial-Attentionモデルを提案する。
医療画像上で効果的にモデルを訓練するために,さらにパフォーマンスを向上させる局所的グローバルトレーニング戦略 (logo) を提案する。
論文 参考訳(メタデータ) (2021-02-21T18:35:14Z) - TransUNet: Transformers Make Strong Encoders for Medical Image
Segmentation [78.01570371790669]
医用画像のセグメンテーションは医療システムの開発に必須の前提条件である。
様々な医療画像セグメンテーションタスクにおいて、U-Netとして知られるu字型アーキテクチャがデファクトスタンダードとなっている。
医用画像セグメンテーションの強力な代替手段として,トランスフォーマーとU-Netの両方を有効活用するTransUNetを提案する。
論文 参考訳(メタデータ) (2021-02-08T16:10:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。