論文の概要: MS-Twins: Multi-Scale Deep Self-Attention Networks for Medical Image
Segmentation
- arxiv url: http://arxiv.org/abs/2312.07128v1
- Date: Tue, 12 Dec 2023 10:04:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-13 16:37:01.590070
- Title: MS-Twins: Multi-Scale Deep Self-Attention Networks for Medical Image
Segmentation
- Title(参考訳): MS-Twins:医療画像セグメンテーションのためのマルチスケールディープセルフアテンションネットワーク
- Authors: Jing Xu
- Abstract要約: 本稿では,自己意識と畳み込みの結合を考慮した強力なセグメンテーションモデルであるMS-Twinsを提案する。
MS-Twins は、Synapse と ACDC という2つの一般的なデータ集合の変換器に基づいて、以前の手法を大幅に進歩させた。
- 参考スコア(独自算出の注目度): 6.6467547151592505
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although transformer is preferred in natural language processing, few studies
have applied it in the field of medical imaging. For its long-term dependency,
the transformer is expected to contribute to unconventional convolution neural
net conquer their inherent spatial induction bias. The lately suggested
transformer-based partition method only uses the transformer as an auxiliary
module to help encode the global context into a convolutional representation.
There is hardly any study about how to optimum bond self-attention (the kernel
of transformers) with convolution. To solve the problem, the article proposes
MS-Twins (Multi-Scale Twins), which is a powerful segmentation model on account
of the bond of self-attention and convolution. MS-Twins can better capture
semantic and fine-grained information by combining different scales and
cascading features. Compared with the existing network structure, MS-Twins has
made significant progress on the previous method based on the transformer of
two in common use data sets, Synapse and ACDC. In particular, the performance
of MS-Twins on Synapse is 8% higher than SwinUNet. Even compared with nnUNet,
the best entirely convoluted medical image segmentation network, the
performance of MS-Twins on Synapse and ACDC still has a bit advantage.
- Abstract(参考訳): トランスフォーマーは自然言語処理に好まれるが、医療画像の分野で応用される研究はほとんどない。
長期的な依存のため、トランスフォーマーは、その固有の空間的誘導バイアスを克服する非コンボリューション畳み込みニューラルネットワークに寄与することが期待されている。
最近提案されたtransformerベースのパーティショニング手法は、グローバルコンテキストを畳み込み表現にエンコードするために、transformerを補助モジュールとしてのみ使用する。
畳み込みを伴う結合自己結合(トランスフォーマーの核)の最適化方法についての研究はほとんどない。
そこで本論文では,MS-Twins(Multi-Scale Twins)を提案する。
MS-Twinsは、さまざまなスケールとカスケード機能を組み合わせることで、セマンティックおよびきめ細かい情報をよりよくキャプチャできる。
既存のネットワーク構造と比較すると、MS-TwinsはSynapseとACDCという2つの一般的なデータ集合の変換器に基づいて、従来の手法に大きな進歩を遂げている。
特に、SynapseにおけるMS-TwinsのパフォーマンスはSwinUNetよりも8%高い。
Synapse と ACDC での MS-Twins のパフォーマンスは,完全に複雑な医療画像セグメンテーションネットワークである nnUNet と比較しても,まだ多少の利点がある。
関連論文リスト
- CiT-Net: Convolutional Neural Networks Hand in Hand with Vision
Transformers for Medical Image Segmentation [10.20771849219059]
医用画像分割のための畳み込みニューラルネットワーク(CNN)とビジョントランスフォーマー(CiT-Net)のハイブリッドアーキテクチャを提案する。
我々のCit-Netは、一般的なSOTA法よりも優れた医用画像セグメンテーション結果を提供する。
論文 参考訳(メタデータ) (2023-06-06T03:22:22Z) - Optimizing Vision Transformers for Medical Image Segmentation and
Few-Shot Domain Adaptation [11.690799827071606]
我々はCS-Unet(Convolutional Swin-Unet)トランスフォーマーブロックを提案し、パッチ埋め込み、プロジェクション、フィードフォワードネットワーク、サンプリングおよびスキップ接続に関連する設定を最適化する。
CS-Unetはゼロからトレーニングすることができ、各機能プロセスフェーズにおける畳み込みの優位性を継承する。
実験によると、CS-Unetは事前トレーニングなしで、パラメータが少ない2つの医療用CTおよびMRIデータセットに対して、最先端の他のデータセットを大きなマージンで上回っている。
論文 参考訳(メタデータ) (2022-10-14T19:18:52Z) - MISSU: 3D Medical Image Segmentation via Self-distilling TransUNet [55.16833099336073]
医用画像セグメンテーションのためのトランスフォーマーベースUNetを提案する。
グローバルな意味情報と局所的な空間的詳細特徴を同時に学習する。
MISSUは従来の最先端手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2022-06-02T07:38:53Z) - Swin UNETR: Swin Transformers for Semantic Segmentation of Brain Tumors
in MRI Images [7.334185314342017]
我々はSwin UNEt TRansformers(Swin UNETR)と呼ばれる新しいセグメンテーションモデルを提案する。
このモデルは、シフトしたウィンドウを利用して、5つの異なる解像度で特徴を抽出し、自己注意を演算する。
我々は、BraTS 2021セグメンテーションチャレンジに参加し、提案したモデルは、検証フェーズにおける最も優れたアプローチの1つである。
論文 参考訳(メタデータ) (2022-01-04T18:01:34Z) - nnFormer: Interleaved Transformer for Volumetric Segmentation [50.10441845967601]
本稿では,自己意図と畳み込みを実証的に組み合わせた,インターリーブアーキテクチャを備えた強力なセグメンテーションモデルであるnnFormerを紹介する。
nnFormerは、SynapseとACDCの2つの一般的なデータセットで、以前のTransformerベースのメソッドよりも大幅に改善されている。
論文 参考訳(メタデータ) (2021-09-07T17:08:24Z) - DS-TransUNet:Dual Swin Transformer U-Net for Medical Image Segmentation [18.755217252996754]
我々はDual Swin Transformer U-Net(DS-TransUNet)と呼ばれる新しいディープ・メディカル・イメージ・セグメンテーション・フレームワークを提案する。
従来のTransformerベースのソリューションとは異なり、提案されたDS-TransUNetは、まずSwin Transformerをベースとしたデュアルスケールエンコーダワークを採用し、異なる意味尺度の粗くきめ細かな特徴表現を抽出する。
DS-TransUNetのコアコンポーネントであるTransformer Interactive Fusion (TIF)モジュールは,自己保持機構を通じて異なるスケールの特徴間のグローバルな依存関係を効果的に確立するために提案されている。
論文 参考訳(メタデータ) (2021-06-12T08:37:17Z) - Swin-Unet: Unet-like Pure Transformer for Medical Image Segmentation [63.46694853953092]
Swin-Unetは、医用画像セグメンテーション用のUnetライクなトランスフォーマーである。
トークン化されたイメージパッチは、TransformerベースのU字型デコーダデコーダアーキテクチャに供給される。
論文 参考訳(メタデータ) (2021-05-12T09:30:26Z) - Transformers Solve the Limited Receptive Field for Monocular Depth
Prediction [82.90445525977904]
畳み込みニューラルネットワークとトランスの両方の恩恵を受けるアーキテクチャであるTransDepthを提案します。
連続ラベルを含む画素単位での予測問題にトランスフォーマーを適用する最初の論文である。
論文 参考訳(メタデータ) (2021-03-22T18:00:13Z) - CoTr: Efficiently Bridging CNN and Transformer for 3D Medical Image
Segmentation [95.51455777713092]
畳み込みニューラルネットワーク(CNN)は、現代の3D医療画像セグメンテーションのデファクトスタンダードとなっている。
本稿では,bf畳み込みニューラルネットワークとbfトランスbf(cotr)を効率良く橋渡しし,正確な3次元医用画像分割を実現する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T13:34:22Z) - TransUNet: Transformers Make Strong Encoders for Medical Image
Segmentation [78.01570371790669]
医用画像のセグメンテーションは医療システムの開発に必須の前提条件である。
様々な医療画像セグメンテーションタスクにおいて、U-Netとして知られるu字型アーキテクチャがデファクトスタンダードとなっている。
医用画像セグメンテーションの強力な代替手段として,トランスフォーマーとU-Netの両方を有効活用するTransUNetを提案する。
論文 参考訳(メタデータ) (2021-02-08T16:10:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。