論文の概要: STM-UNet: An Efficient U-shaped Architecture Based on Swin Transformer
and Multi-scale MLP for Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2304.12615v1
- Date: Tue, 25 Apr 2023 07:18:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-26 21:40:19.391733
- Title: STM-UNet: An Efficient U-shaped Architecture Based on Swin Transformer
and Multi-scale MLP for Medical Image Segmentation
- Title(参考訳): STM-UNet:スウィントランスとマルチスケールMLPを用いた医用画像分割のための効率的なU字型アーキテクチャ
- Authors: Lei Shi, Tianyu Gao, Zheng Zhang and Junxing Zhang
- Abstract要約: 本稿では,Swin Transformerとマルチスケール,すなわちSTM-UNetに基づく効率的なU字型アーキテクチャを提案する。
また,本手法は,IoUとDiceの両面で,最先端の手法よりも優れている。
- 参考スコア(独自算出の注目度): 15.923557701187422
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automated medical image segmentation can assist doctors to diagnose faster
and more accurate. Deep learning based models for medical image segmentation
have made great progress in recent years. However, the existing models fail to
effectively leverage Transformer and MLP for improving U-shaped architecture
efficiently. In addition, the multi-scale features of the MLP have not been
fully extracted in the bottleneck of U-shaped architecture. In this paper, we
propose an efficient U-shaped architecture based on Swin Transformer and
multi-scale MLP, namely STM-UNet. Specifically, the Swin Transformer block is
added to skip connection of STM-UNet in form of residual connection, which can
enhance the modeling ability of global features and long-range dependency.
Meanwhile, a novel PCAS-MLP with parallel convolution module is designed and
placed into the bottleneck of our architecture to contribute to the improvement
of segmentation performance. The experimental results on ISIC 2016 and ISIC
2018 demonstrate the effectiveness of our proposed method. Our method also
outperforms several state-of-the-art methods in terms of IoU and Dice. Our
method has achieved a better trade-off between high segmentation accuracy and
low model complexity.
- Abstract(参考訳): 自動医療画像分割は、医師がより早く正確に診断するのに役立つ。
近年,医用画像分割のための深層学習モデルが大きな進歩を遂げている。
しかし、既存のモデルはu字型アーキテクチャを効率的に改善するためにトランスフォーマーやmlpを効果的に活用できなかった。
さらに,MLPのマルチスケール特徴は,U字型アーキテクチャのボトルネックにおいて完全に抽出されていない。
本稿では,Swin TransformerとマルチスケールMLP,すなわちSTM-UNetに基づく効率的なU字型アーキテクチャを提案する。
特に、スウィントランスブロックは、残留接続の形でstm-unetの接続をスキップするために追加され、グローバル特徴のモデリング能力と長距離依存性を高めることができる。
一方,並列畳み込みモジュールを備えた新しいpcas-mlpは,セグメンテーション性能の向上に寄与するため,アーキテクチャのボトルネックとして設計・実装されている。
isic 2016とisic 2018の実験結果は,提案手法の有効性を示している。
また,本手法はIoUとDiceの観点から,最先端の手法よりも優れている。
提案手法は,高セグメンテーション精度と低モデル複雑性とのトレードオフを向上した。
関連論文リスト
- MedVisionLlama: Leveraging Pre-Trained Large Language Model Layers to Enhance Medical Image Segmentation [0.8437187555622164]
本研究では、予め訓練されたLCMトランスブロックを統合することで、医用画像セグメンテーションのためのビジョントランス(ViT)の強化について検討する。
凍結LDM変換器ブロックをViTモデルエンコーダに組み込んだ手法により,セグメント化性能が大幅に向上した。
改良されたモデルでは、平均Diceスコアが0.74から0.79に向上し、精度、精度、ジャカード指数が向上した。
論文 参考訳(メタデータ) (2024-10-03T14:50:33Z) - PMT: Progressive Mean Teacher via Exploring Temporal Consistency for Semi-Supervised Medical Image Segmentation [51.509573838103854]
医用画像セグメンテーションのための半教師付き学習フレームワークであるプログレッシブ平均教師(PMT)を提案する。
我々のPMTは、トレーニングプロセスにおいて、堅牢で多様な特徴を学習することで、高忠実な擬似ラベルを生成する。
CT と MRI の異なる2つのデータセットに対する実験結果から,本手法が最先端の医用画像分割法より優れていることが示された。
論文 参考訳(メタデータ) (2024-09-08T15:02:25Z) - HMT-UNet: A hybird Mamba-Transformer Vision UNet for Medical Image Segmentation [1.5574423250822542]
我々はHybird Transformer Vision Mamba UNet(HTM-UNet)という医療画像分割のためのU字型アーキテクチャーモデルを提案する。
我々はISIC17、ISIC18、CVC-300、CVC-ClinicDB、Kvasir、CVC-ColonDB、ETIS-Larib PolypDBパブリックデータセット、ZD-LCI-GIMプライベートデータセットに関する包括的な実験を行う。
論文 参考訳(メタデータ) (2024-08-21T02:25:14Z) - MM-UNet: A Mixed MLP Architecture for Improved Ophthalmic Image Segmentation [3.2846676620336632]
眼科画像分割は眼疾患の診断において重要な基礎となる。
トランスフォーマーベースのモデルはこれらの制限に対処するが、かなりの計算オーバーヘッドをもたらす。
本稿では,眼内画像分割に適したMixedモデルであるMM-UNetを紹介する。
論文 参考訳(メタデータ) (2024-08-16T08:34:50Z) - Transformer-Based Classification Outcome Prediction for Multimodal Stroke Treatment [8.686077984641356]
本研究では,Transformerアーキテクチャと自己保持機構に基づくマルチモーダル融合フレームワークであるMultitransを提案する。
このアーキテクチャは、非コントラストCT(non-contrast Computed tomography)画像の研究と、脳卒中治療中の患者の退院診断報告を組み合わせたものである。
論文 参考訳(メタデータ) (2024-04-19T05:31:37Z) - SeUNet-Trans: A Simple yet Effective UNet-Transformer Model for Medical
Image Segmentation [0.0]
医用画像セグメンテーションのためのシンプルなUNet-Transformer(seUNet-Trans)モデルを提案する。
提案手法では,UNetモデルを特徴抽出器として設計し,入力画像から複数の特徴マップを生成する。
UNetアーキテクチャと自己認識機構を活用することで、我々のモデルはローカルとグローバルの両方のコンテキスト情報を保存するだけでなく、入力要素間の長距離依存関係をキャプチャできる。
論文 参考訳(メタデータ) (2023-10-16T01:13:38Z) - 3DSAM-adapter: Holistic adaptation of SAM from 2D to 3D for promptable tumor segmentation [52.699139151447945]
医用画像の領域分割を行うために, SAMを2次元から3次元に変換する新しい適応法を提案する。
本モデルでは, 腎腫瘍, 膵腫瘍, 大腸癌の3つのタスクのうち8.25%, 29.87%, 10.11%の3つのタスクにおいて, ドメイン・オブ・ザ・アーティヴ・メディカル・イメージ・セグメンテーション・モデルより優れ, 肝腫瘍セグメンテーションでも同様の性能が得られる。
論文 参考訳(メタデータ) (2023-06-23T12:09:52Z) - MISSU: 3D Medical Image Segmentation via Self-distilling TransUNet [55.16833099336073]
医用画像セグメンテーションのためのトランスフォーマーベースUNetを提案する。
グローバルな意味情報と局所的な空間的詳細特徴を同時に学習する。
MISSUは従来の最先端手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2022-06-02T07:38:53Z) - Automatic size and pose homogenization with spatial transformer network
to improve and accelerate pediatric segmentation [51.916106055115755]
空間変換器ネットワーク(STN)を利用することにより、ポーズとスケール不変の新たなCNNアーキテクチャを提案する。
私たちのアーキテクチャは、トレーニング中に一緒に見積もられる3つのシーケンシャルモジュールで構成されています。
腹部CTスキャナーを用いた腎および腎腫瘍の分節法について検討した。
論文 参考訳(メタデータ) (2021-07-06T14:50:03Z) - Medical Transformer: Gated Axial-Attention for Medical Image
Segmentation [73.98974074534497]
医用画像分割タスクにおけるトランスフォーマティブネットワークアーキテクチャの利用可能性について検討する。
セルフアテンションモジュールに追加の制御機構を導入することで,既存のアーキテクチャを拡張するGated Axial-Attentionモデルを提案する。
医療画像上で効果的にモデルを訓練するために,さらにパフォーマンスを向上させる局所的グローバルトレーニング戦略 (logo) を提案する。
論文 参考訳(メタデータ) (2021-02-21T18:35:14Z) - Learning Deformable Image Registration from Optimization: Perspective,
Modules, Bilevel Training and Beyond [62.730497582218284]
マルチスケールの伝搬により微分同相モデルを最適化する,新しいディープラーニングベースのフレームワークを開発した。
我々は,脳MRIデータにおける画像-アトラス登録,肝CTデータにおける画像-画像登録を含む,3次元ボリュームデータセットにおける画像登録実験の2つのグループを実行する。
論文 参考訳(メタデータ) (2020-04-30T03:23:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。