論文の概要: MISSU: 3D Medical Image Segmentation via Self-distilling TransUNet
- arxiv url: http://arxiv.org/abs/2206.00902v1
- Date: Thu, 2 Jun 2022 07:38:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-03 13:59:41.998093
- Title: MISSU: 3D Medical Image Segmentation via Self-distilling TransUNet
- Title(参考訳): MISSU: 自己蒸留トランスUNetによる3次元医用画像セグメンテーション
- Authors: Nan Wang, Shaohui Lin, Xiaoxiao Li, Ke Li, Yunhang Shen, Yue Gao,
Lizhuang Ma
- Abstract要約: 医用画像セグメンテーションのためのトランスフォーマーベースUNetを提案する。
グローバルな意味情報と局所的な空間的詳細特徴を同時に学習する。
MISSUは従来の最先端手法よりも優れた性能を発揮する。
- 参考スコア(独自算出の注目度): 55.16833099336073
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: U-Nets have achieved tremendous success in medical image segmentation.
Nevertheless, it may suffer limitations in global (long-range) contextual
interactions and edge-detail preservation. In contrast, Transformer has an
excellent ability to capture long-range dependencies by leveraging the
self-attention mechanism into the encoder. Although Transformer was born to
model the long-range dependency on the extracted feature maps, it still suffers
from extreme computational and spatial complexities in processing
high-resolution 3D feature maps. This motivates us to design the efficiently
Transformer-based UNet model and study the feasibility of Transformer-based
network architectures for medical image segmentation tasks. To this end, we
propose to self-distill a Transformer-based UNet for medical image
segmentation, which simultaneously learns global semantic information and local
spatial-detailed features. Meanwhile, a local multi-scale fusion block is first
proposed to refine fine-grained details from the skipped connections in the
encoder by the main CNN stem through self-distillation, only computed during
training and removed at inference with minimal overhead. Extensive experiments
on BraTS 2019 and CHAOS datasets show that our MISSU achieves the best
performance over previous state-of-the-art methods. Code and models are
available at \url{https://github.com/wangn123/MISSU.git}
- Abstract(参考訳): U-Netは医療画像セグメンテーションで大きな成功を収めた。
それでも、グローバルな(長距離の)コンテキスト相互作用とエッジ・ディテール保存に制限を受ける可能性がある。
対照的にTransformerは、エンコーダに自己保持機構を活用することで、長距離依存関係をキャプチャする能力に優れています。
Transformerは抽出した特徴マップの長距離依存性をモデル化するために生まれたが、高解像度の3D特徴マップを処理する際には、計算量と空間的複雑さが極端に複雑である。
これにより,効率的なトランスフォーマーベースUNetモデルを設計し,医用画像分割タスクにおけるトランスフォーマーベースのネットワークアーキテクチャの実現可能性について検討する。
そこで我々は,グローバルな意味情報と局所的な空間的詳細特徴を同時に学習する医療画像セグメンテーションのためのトランスフォーマーベースのUNetを提案する。
一方, 局所的多スケール核融合ブロックは, 自己蒸留によってエンコーダのスキッピング接続の細部詳細を精細化するために, 訓練中にのみ計算され, 最小のオーバーヘッドで推論により除去された。
brats 2019とchaosデータセットに関する広範な実験では、以前の最先端メソッドよりも優れたパフォーマンスを実現しています。
コードとモデルは \url{https://github.com/wangn123/MISSU.git} で入手できる。
関連論文リスト
- ParaTransCNN: Parallelized TransCNN Encoder for Medical Image
Segmentation [7.955518153976858]
本稿では,畳み込みニューラルネットワークとトランスフォーマーアーキテクチャを組み合わせた2次元特徴抽出手法を提案する。
特に小臓器では, セグメンテーションの精度が向上した。
論文 参考訳(メタデータ) (2024-01-27T05:58:36Z) - TransNorm: Transformer Provides a Strong Spatial Normalization Mechanism
for a Deep Segmentation Model [4.320393382724066]
畳み込みニューラルネットワーク(CNN)は、医療画像処理時代の主流技術である。
本稿では,Transformerモジュールをエンコーダとスキップ接続の両方に統合する,新しいディープセグメンテーションフレームワークであるTrans-Normを提案する。
論文 参考訳(メタデータ) (2022-07-27T09:54:10Z) - Dynamic Linear Transformer for 3D Biomedical Image Segmentation [2.440109381823186]
トランスフォーマーベースのニューラルネットワークは、多くのバイオメディカルイメージセグメンテーションタスクにおいて、有望なパフォーマンスを上回っている。
3次元トランスを用いた分割法の主な課題は、自己認識機構によって引き起こされる二次的複雑性である。
本稿では,エンコーダ・デコーダ方式の線形複雑化を用いた3次元医用画像分割のためのトランスフォーマアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-06-01T21:15:01Z) - Swin-Unet: Unet-like Pure Transformer for Medical Image Segmentation [63.46694853953092]
Swin-Unetは、医用画像セグメンテーション用のUnetライクなトランスフォーマーである。
トークン化されたイメージパッチは、TransformerベースのU字型デコーダデコーダアーキテクチャに供給される。
論文 参考訳(メタデータ) (2021-05-12T09:30:26Z) - Transformers Solve the Limited Receptive Field for Monocular Depth
Prediction [82.90445525977904]
畳み込みニューラルネットワークとトランスの両方の恩恵を受けるアーキテクチャであるTransDepthを提案します。
連続ラベルを含む画素単位での予測問題にトランスフォーマーを適用する最初の論文である。
論文 参考訳(メタデータ) (2021-03-22T18:00:13Z) - CoTr: Efficiently Bridging CNN and Transformer for 3D Medical Image
Segmentation [95.51455777713092]
畳み込みニューラルネットワーク(CNN)は、現代の3D医療画像セグメンテーションのデファクトスタンダードとなっている。
本稿では,bf畳み込みニューラルネットワークとbfトランスbf(cotr)を効率良く橋渡しし,正確な3次元医用画像分割を実現する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T13:34:22Z) - Medical Transformer: Gated Axial-Attention for Medical Image
Segmentation [73.98974074534497]
医用画像分割タスクにおけるトランスフォーマティブネットワークアーキテクチャの利用可能性について検討する。
セルフアテンションモジュールに追加の制御機構を導入することで,既存のアーキテクチャを拡張するGated Axial-Attentionモデルを提案する。
医療画像上で効果的にモデルを訓練するために,さらにパフォーマンスを向上させる局所的グローバルトレーニング戦略 (logo) を提案する。
論文 参考訳(メタデータ) (2021-02-21T18:35:14Z) - TransUNet: Transformers Make Strong Encoders for Medical Image
Segmentation [78.01570371790669]
医用画像のセグメンテーションは医療システムの開発に必須の前提条件である。
様々な医療画像セグメンテーションタスクにおいて、U-Netとして知られるu字型アーキテクチャがデファクトスタンダードとなっている。
医用画像セグメンテーションの強力な代替手段として,トランスフォーマーとU-Netの両方を有効活用するTransUNetを提案する。
論文 参考訳(メタデータ) (2021-02-08T16:10:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。