論文の概要: STM-UNet: An Efficient U-shaped Architecture Based on Swin Transformer
and Multi-scale MLP for Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2304.12615v1
- Date: Tue, 25 Apr 2023 07:18:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-26 21:40:19.391733
- Title: STM-UNet: An Efficient U-shaped Architecture Based on Swin Transformer
and Multi-scale MLP for Medical Image Segmentation
- Title(参考訳): STM-UNet:スウィントランスとマルチスケールMLPを用いた医用画像分割のための効率的なU字型アーキテクチャ
- Authors: Lei Shi, Tianyu Gao, Zheng Zhang and Junxing Zhang
- Abstract要約: 本稿では,Swin Transformerとマルチスケール,すなわちSTM-UNetに基づく効率的なU字型アーキテクチャを提案する。
また,本手法は,IoUとDiceの両面で,最先端の手法よりも優れている。
- 参考スコア(独自算出の注目度): 15.923557701187422
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automated medical image segmentation can assist doctors to diagnose faster
and more accurate. Deep learning based models for medical image segmentation
have made great progress in recent years. However, the existing models fail to
effectively leverage Transformer and MLP for improving U-shaped architecture
efficiently. In addition, the multi-scale features of the MLP have not been
fully extracted in the bottleneck of U-shaped architecture. In this paper, we
propose an efficient U-shaped architecture based on Swin Transformer and
multi-scale MLP, namely STM-UNet. Specifically, the Swin Transformer block is
added to skip connection of STM-UNet in form of residual connection, which can
enhance the modeling ability of global features and long-range dependency.
Meanwhile, a novel PCAS-MLP with parallel convolution module is designed and
placed into the bottleneck of our architecture to contribute to the improvement
of segmentation performance. The experimental results on ISIC 2016 and ISIC
2018 demonstrate the effectiveness of our proposed method. Our method also
outperforms several state-of-the-art methods in terms of IoU and Dice. Our
method has achieved a better trade-off between high segmentation accuracy and
low model complexity.
- Abstract(参考訳): 自動医療画像分割は、医師がより早く正確に診断するのに役立つ。
近年,医用画像分割のための深層学習モデルが大きな進歩を遂げている。
しかし、既存のモデルはu字型アーキテクチャを効率的に改善するためにトランスフォーマーやmlpを効果的に活用できなかった。
さらに,MLPのマルチスケール特徴は,U字型アーキテクチャのボトルネックにおいて完全に抽出されていない。
本稿では,Swin TransformerとマルチスケールMLP,すなわちSTM-UNetに基づく効率的なU字型アーキテクチャを提案する。
特に、スウィントランスブロックは、残留接続の形でstm-unetの接続をスキップするために追加され、グローバル特徴のモデリング能力と長距離依存性を高めることができる。
一方,並列畳み込みモジュールを備えた新しいpcas-mlpは,セグメンテーション性能の向上に寄与するため,アーキテクチャのボトルネックとして設計・実装されている。
isic 2016とisic 2018の実験結果は,提案手法の有効性を示している。
また,本手法はIoUとDiceの観点から,最先端の手法よりも優れている。
提案手法は,高セグメンテーション精度と低モデル複雑性とのトレードオフを向上した。
関連論文リスト
- A Multimodal Feature Distillation with CNN-Transformer Network for Brain Tumor Segmentation with Incomplete Modalities [15.841483814265592]
本稿では,CNN-Transformer Hybrid Network (MCTSeg) を用いたマルチモーダル特徴蒸留法を提案する。
CNN-Transformer ネットワークと Transformer の畳み込みブロックを併用して提案するモジュールの重要性について検討した。
論文 参考訳(メタデータ) (2024-04-22T09:33:44Z) - Transformer-Based Classification Outcome Prediction for Multimodal Stroke Treatment [8.686077984641356]
本研究では,Transformerアーキテクチャと自己保持機構に基づくマルチモーダル融合フレームワークであるMultitransを提案する。
このアーキテクチャは、非コントラストCT(non-contrast Computed tomography)画像の研究と、脳卒中治療中の患者の退院診断報告を組み合わせたものである。
論文 参考訳(メタデータ) (2024-04-19T05:31:37Z) - SeUNet-Trans: A Simple yet Effective UNet-Transformer Model for Medical
Image Segmentation [0.0]
医用画像セグメンテーションのためのシンプルなUNet-Transformer(seUNet-Trans)モデルを提案する。
提案手法では,UNetモデルを特徴抽出器として設計し,入力画像から複数の特徴マップを生成する。
UNetアーキテクチャと自己認識機構を活用することで、我々のモデルはローカルとグローバルの両方のコンテキスト情報を保存するだけでなく、入力要素間の長距離依存関係をキャプチャできる。
論文 参考訳(メタデータ) (2023-10-16T01:13:38Z) - 3DSAM-adapter: Holistic Adaptation of SAM from 2D to 3D for Promptable
Medical Image Segmentation [56.50064853710202]
医用画像の領域分割を行うために, SAMを2次元から3次元に変換する新しい適応法を提案する。
本モデルでは, 腎腫瘍, 膵腫瘍, 大腸癌の3つのタスクのうち8.25%, 29.87%, 10.11%の3つのタスクにおいて, ドメイン・オブ・ザ・アーティヴ・メディカル・イメージ・セグメンテーション・モデルより優れ, 肝腫瘍セグメンテーションでも同様の性能が得られる。
論文 参考訳(メタデータ) (2023-06-23T12:09:52Z) - Caterpillar: A Pure-MLP Architecture with Shifted-Pillars-Concatenation [72.31517616233695]
Shifted-Pillars-Concatenation (SPC)モジュールは、より優れたローカルモデリングパワーとパフォーマンス向上を提供する。
我々は、SMLPNetのハイブリッドモデルにおいて、畳み込み層をSPCモジュールに置き換えることで、Caterpillarと呼ばれる純粋なMLPアーキテクチャを構築します。
論文 参考訳(メタデータ) (2023-05-28T06:19:36Z) - HST-MRF: Heterogeneous Swin Transformer with Multi-Receptive Field for
Medical Image Segmentation [5.51045524851432]
医用画像セグメンテーションのためのHST-MRFモデルを提案する。
主な目的は、トランスを用いたパッチセグメンテーションによる構造情報の損失を解決することである。
実験の結果,提案手法は最先端モデルよりも優れ,優れた性能が得られることがわかった。
論文 参考訳(メタデータ) (2023-04-10T14:30:03Z) - Video-TransUNet: Temporally Blended Vision Transformer for CT VFSS
Instance Segmentation [11.575821326313607]
本稿では,TransUNetの深層学習フレームワークに時間的特徴ブレンドを組み込んだ医療用CTビデオのセグメンテーションのための深層アーキテクチャであるVideo-TransUNetを提案する。
特に,提案手法は,ResNet CNNバックボーンによるフレーム表現,テンポラルコンテキストモジュールによるマルチフレーム機能ブレンディング,UNetベースの畳み込みデコナールアーキテクチャによる複数ターゲットの再構築,などを実現する。
論文 参考訳(メタデータ) (2022-08-17T14:28:58Z) - MISSU: 3D Medical Image Segmentation via Self-distilling TransUNet [55.16833099336073]
医用画像セグメンテーションのためのトランスフォーマーベースUNetを提案する。
グローバルな意味情報と局所的な空間的詳細特徴を同時に学習する。
MISSUは従来の最先端手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2022-06-02T07:38:53Z) - Automatic size and pose homogenization with spatial transformer network
to improve and accelerate pediatric segmentation [51.916106055115755]
空間変換器ネットワーク(STN)を利用することにより、ポーズとスケール不変の新たなCNNアーキテクチャを提案する。
私たちのアーキテクチャは、トレーニング中に一緒に見積もられる3つのシーケンシャルモジュールで構成されています。
腹部CTスキャナーを用いた腎および腎腫瘍の分節法について検討した。
論文 参考訳(メタデータ) (2021-07-06T14:50:03Z) - Medical Transformer: Gated Axial-Attention for Medical Image
Segmentation [73.98974074534497]
医用画像分割タスクにおけるトランスフォーマティブネットワークアーキテクチャの利用可能性について検討する。
セルフアテンションモジュールに追加の制御機構を導入することで,既存のアーキテクチャを拡張するGated Axial-Attentionモデルを提案する。
医療画像上で効果的にモデルを訓練するために,さらにパフォーマンスを向上させる局所的グローバルトレーニング戦略 (logo) を提案する。
論文 参考訳(メタデータ) (2021-02-21T18:35:14Z) - Learning Deformable Image Registration from Optimization: Perspective,
Modules, Bilevel Training and Beyond [62.730497582218284]
マルチスケールの伝搬により微分同相モデルを最適化する,新しいディープラーニングベースのフレームワークを開発した。
我々は,脳MRIデータにおける画像-アトラス登録,肝CTデータにおける画像-画像登録を含む,3次元ボリュームデータセットにおける画像登録実験の2つのグループを実行する。
論文 参考訳(メタデータ) (2020-04-30T03:23:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。