論文の概要: D-Former: A U-shaped Dilated Transformer for 3D Medical Image
Segmentation
- arxiv url: http://arxiv.org/abs/2201.00462v1
- Date: Mon, 3 Jan 2022 03:20:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-04 13:02:05.251677
- Title: D-Former: A U-shaped Dilated Transformer for 3D Medical Image
Segmentation
- Title(参考訳): d-former : 3次元医用画像分割用u字型拡張トランス
- Authors: Yixuan Wu, Kuanlun Liao, Jintai Chen, Danny Z. Chen, Jinhong Wang,
Honghao Gao, Jian Wu
- Abstract要約: そこで我々はDilated Transformerと呼ばれる新しい手法を提案し、ローカルとグローバルの領域で交互にキャプチャされたペアワイドパッチ関係に対して自己アテンションを行う。
拡張畳み込みカーネルにインスパイアされた我々は、グローバルな自己意識を拡張的に実行し、関連するパッチを増やさずに受容領域を拡大し、計算コストを削減した。
- 参考スコア(独自算出の注目度): 7.635663740358682
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Computer-aided medical image segmentation has been applied widely in
diagnosis and treatment to obtain clinically useful information of shapes and
volumes of target organs and tissues. In the past several years, convolutional
neural network (CNN) based methods (e.g., U-Net) have dominated this area, but
still suffered from inadequate long-range information capturing. Hence, recent
work presented computer vision Transformer variants for medical image
segmentation tasks and obtained promising performances. Such Transformers model
long-range dependency by computing pair-wise patch relations. However, they
incur prohibitive computational costs, especially on 3D medical images (e.g.,
CT and MRI). In this paper, we propose a new method called Dilated Transformer,
which conducts self-attention for pair-wise patch relations captured
alternately in local and global scopes. Inspired by dilated convolution
kernels, we conduct the global self-attention in a dilated manner, enlarging
receptive fields without increasing the patches involved and thus reducing
computational costs. Based on this design of Dilated Transformer, we construct
a U-shaped encoder-decoder hierarchical architecture called D-Former for 3D
medical image segmentation. Experiments on the Synapse and ACDC datasets show
that our D-Former model, trained from scratch, outperforms various competitive
CNN-based or Transformer-based segmentation models at a low computational cost
without time-consuming per-training process.
- Abstract(参考訳): コンピュータ支援医用画像分割は診断や治療に広く応用され、標的臓器や組織の形状や体積に関する臨床的に有用な情報を得る。
過去数年間、畳み込みニューラルネットワーク(CNN)ベースの手法(例:U-Net)がこの領域を支配してきたが、それでも不十分な長距離情報収集に悩まされている。
そこで,近年の研究では,医用画像分割タスクのためのコンピュータビジョントランスフォーマが提案され,有望な性能を得た。
このようなトランスフォーマーはペアワイドパッチ関係の計算によって長距離依存性をモデル化する。
しかし、特に3次元医用画像(例えば、CTやMRI)では、計算コストが禁じられている。
本稿では,局所的および大域的スコープで交互に捕捉されるペアワイズパッチ関係に対して自己アテンションを行う拡張トランスと呼ばれる新しい手法を提案する。
拡張畳み込みカーネルに触発されて,グローバル自己アテンションを拡張的に実施し,パッチを増加させることなく受容場を拡大し,計算コストを低減した。
このDilated Transformerの設計に基づき、3次元画像分割のためのD-Formerと呼ばれるU字型エンコーダデコーダ階層アーキテクチャを構築する。
synapse と acdc データセットの実験では、scratch からトレーニングした d-former モデルは、計算コストの低さで様々な cnn ベースまたは transformer ベースのセグメンテーションモデルを上回ることが示されている。
関連論文リスト
- SeUNet-Trans: A Simple yet Effective UNet-Transformer Model for Medical
Image Segmentation [0.0]
医用画像セグメンテーションのためのシンプルなUNet-Transformer(seUNet-Trans)モデルを提案する。
提案手法では,UNetモデルを特徴抽出器として設計し,入力画像から複数の特徴マップを生成する。
UNetアーキテクチャと自己認識機構を活用することで、我々のモデルはローカルとグローバルの両方のコンテキスト情報を保存するだけでなく、入力要素間の長距離依存関係をキャプチャできる。
論文 参考訳(メタデータ) (2023-10-16T01:13:38Z) - MISSU: 3D Medical Image Segmentation via Self-distilling TransUNet [55.16833099336073]
医用画像セグメンテーションのためのトランスフォーマーベースUNetを提案する。
グローバルな意味情報と局所的な空間的詳細特徴を同時に学習する。
MISSUは従来の最先端手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2022-06-02T07:38:53Z) - Dynamic Linear Transformer for 3D Biomedical Image Segmentation [2.440109381823186]
トランスフォーマーベースのニューラルネットワークは、多くのバイオメディカルイメージセグメンテーションタスクにおいて、有望なパフォーマンスを上回っている。
3次元トランスを用いた分割法の主な課題は、自己認識機構によって引き起こされる二次的複雑性である。
本稿では,エンコーダ・デコーダ方式の線形複雑化を用いた3次元医用画像分割のためのトランスフォーマアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-06-01T21:15:01Z) - Swin UNETR: Swin Transformers for Semantic Segmentation of Brain Tumors
in MRI Images [7.334185314342017]
我々はSwin UNEt TRansformers(Swin UNETR)と呼ばれる新しいセグメンテーションモデルを提案する。
このモデルは、シフトしたウィンドウを利用して、5つの異なる解像度で特徴を抽出し、自己注意を演算する。
我々は、BraTS 2021セグメンテーションチャレンジに参加し、提案したモデルは、検証フェーズにおける最も優れたアプローチの1つである。
論文 参考訳(メタデータ) (2022-01-04T18:01:34Z) - nnFormer: Interleaved Transformer for Volumetric Segmentation [50.10441845967601]
本稿では,自己意図と畳み込みを実証的に組み合わせた,インターリーブアーキテクチャを備えた強力なセグメンテーションモデルであるnnFormerを紹介する。
nnFormerは、SynapseとACDCの2つの一般的なデータセットで、以前のTransformerベースのメソッドよりも大幅に改善されている。
論文 参考訳(メタデータ) (2021-09-07T17:08:24Z) - Swin-Unet: Unet-like Pure Transformer for Medical Image Segmentation [63.46694853953092]
Swin-Unetは、医用画像セグメンテーション用のUnetライクなトランスフォーマーである。
トークン化されたイメージパッチは、TransformerベースのU字型デコーダデコーダアーキテクチャに供給される。
論文 参考訳(メタデータ) (2021-05-12T09:30:26Z) - Pyramid Medical Transformer for Medical Image Segmentation [8.157373686645318]
ピラミッド型ネットワークアーキテクチャ(PMTrans)を用いたマルチスケールアテンションとCNN特徴抽出を統合した新しい手法を開発した。
2つの医用画像データセット(腺セグメンテーションとMoNuSegデータセット)の実験結果によると、PMTransは最新のCNNベースおよびトランスフォーマーベースの医療用画像セグメンテーションモデルよりも優れていた。
論文 参考訳(メタデータ) (2021-04-29T23:57:20Z) - CoTr: Efficiently Bridging CNN and Transformer for 3D Medical Image
Segmentation [95.51455777713092]
畳み込みニューラルネットワーク(CNN)は、現代の3D医療画像セグメンテーションのデファクトスタンダードとなっている。
本稿では,bf畳み込みニューラルネットワークとbfトランスbf(cotr)を効率良く橋渡しし,正確な3次元医用画像分割を実現する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T13:34:22Z) - Medical Transformer: Gated Axial-Attention for Medical Image
Segmentation [73.98974074534497]
医用画像分割タスクにおけるトランスフォーマティブネットワークアーキテクチャの利用可能性について検討する。
セルフアテンションモジュールに追加の制御機構を導入することで,既存のアーキテクチャを拡張するGated Axial-Attentionモデルを提案する。
医療画像上で効果的にモデルを訓練するために,さらにパフォーマンスを向上させる局所的グローバルトレーニング戦略 (logo) を提案する。
論文 参考訳(メタデータ) (2021-02-21T18:35:14Z) - TransUNet: Transformers Make Strong Encoders for Medical Image
Segmentation [78.01570371790669]
医用画像のセグメンテーションは医療システムの開発に必須の前提条件である。
様々な医療画像セグメンテーションタスクにおいて、U-Netとして知られるu字型アーキテクチャがデファクトスタンダードとなっている。
医用画像セグメンテーションの強力な代替手段として,トランスフォーマーとU-Netの両方を有効活用するTransUNetを提案する。
論文 参考訳(メタデータ) (2021-02-08T16:10:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。