論文の概要: Swin UNETR: Swin Transformers for Semantic Segmentation of Brain Tumors
in MRI Images
- arxiv url: http://arxiv.org/abs/2201.01266v1
- Date: Tue, 4 Jan 2022 18:01:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-05 13:34:58.923430
- Title: Swin UNETR: Swin Transformers for Semantic Segmentation of Brain Tumors
in MRI Images
- Title(参考訳): swin unetr:mri画像における脳腫瘍のセグメンテーションのためのスウィントランスフォーマー
- Authors: Ali Hatamizadeh, Vishwesh Nath, Yucheng Tang, Dong Yang, Holger Roth
and Daguang Xu
- Abstract要約: 我々はSwin UNEt TRansformers(Swin UNETR)と呼ばれる新しいセグメンテーションモデルを提案する。
このモデルは、シフトしたウィンドウを利用して、5つの異なる解像度で特徴を抽出し、自己注意を演算する。
我々は、BraTS 2021セグメンテーションチャレンジに参加し、提案したモデルは、検証フェーズにおける最も優れたアプローチの1つである。
- 参考スコア(独自算出の注目度): 7.334185314342017
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Semantic segmentation of brain tumors is a fundamental medical image analysis
task involving multiple MRI imaging modalities that can assist clinicians in
diagnosing the patient and successively studying the progression of the
malignant entity. In recent years, Fully Convolutional Neural Networks (FCNNs)
approaches have become the de facto standard for 3D medical image segmentation.
The popular "U-shaped" network architecture has achieved state-of-the-art
performance benchmarks on different 2D and 3D semantic segmentation tasks and
across various imaging modalities. However, due to the limited kernel size of
convolution layers in FCNNs, their performance of modeling long-range
information is sub-optimal, and this can lead to deficiencies in the
segmentation of tumors with variable sizes. On the other hand, transformer
models have demonstrated excellent capabilities in capturing such long-range
information in multiple domains, including natural language processing and
computer vision. Inspired by the success of vision transformers and their
variants, we propose a novel segmentation model termed Swin UNEt TRansformers
(Swin UNETR). Specifically, the task of 3D brain tumor semantic segmentation is
reformulated as a sequence to sequence prediction problem wherein multi-modal
input data is projected into a 1D sequence of embedding and used as an input to
a hierarchical Swin transformer as the encoder. The swin transformer encoder
extracts features at five different resolutions by utilizing shifted windows
for computing self-attention and is connected to an FCNN-based decoder at each
resolution via skip connections. We have participated in BraTS 2021
segmentation challenge, and our proposed model ranks among the top-performing
approaches in the validation phase. Code: https://monai.io/research/swin-unetr
- Abstract(参考訳): 脳腫瘍のセマンティックセグメンテーション(Semantic segmentation of brain tumors)は、臨床医が患者を診断し、悪性物質の進行を連続的に研究するのを助ける複数のMRI画像モダリティを含む基本的な医療画像解析タスクである。
近年、FCNN(Fully Convolutional Neural Networks)アプローチは、3次元医用画像セグメンテーションのデファクトスタンダードとなっている。
人気のある"u字型"ネットワークアーキテクチャは、異なる2dおよび3dセマンティックセグメンテーションタスクと様々なイメージモダリティで最先端のパフォーマンスベンチマークを達成している。
しかし、FCNNの畳み込み層のカーネルサイズが限られているため、長距離情報をモデル化する性能は準最適であり、可変サイズの腫瘍のセグメンテーションに欠陥をもたらす可能性がある。
一方、トランスフォーマーモデルは、自然言語処理やコンピュータビジョンなど、複数の領域でこのような長距離情報をキャプチャする優れた性能を示している。
視覚変換器とその変種の成功に触発されて,Swin UNEt TRansformers (Swin UNETR) と呼ばれる新しいセグメンテーションモデルを提案する。
具体的には、3次元脳腫瘍セマンティクスセグメンテーションのタスクを、マルチモーダル入力データを埋め込みの1次元シーケンスに投影し、階層的なスウィントランスをエンコーダとして入力として使用するシーケンストシーケンス予測問題として再構成する。
スウィントランスエンコーダは、シフトしたウィンドウを利用して、5つの異なる解像度で特徴を抽出し、スキップ接続を介して各解像度でFCNNベースのデコーダに接続する。
我々は、BraTS 2021セグメンテーションチャレンジに参加し、提案モデルが検証フェーズにおける最も優れたアプローチである。
コード: https://monai.io/research/swin-unetr
関連論文リスト
- SDR-Former: A Siamese Dual-Resolution Transformer for Liver Lesion
Classification Using 3D Multi-Phase Imaging [59.78761085714715]
本研究は肝病変分類のための新しいSDR-Formerフレームワークを提案する。
提案フレームワークは2つの臨床データセットに関する総合的な実験を通じて検証された。
科学コミュニティを支援するため,肝病変解析のための多段階MRデータセットを公開しています。
論文 参考訳(メタデータ) (2024-02-27T06:32:56Z) - Learning from partially labeled data for multi-organ and tumor
segmentation [102.55303521877933]
本稿では,トランスフォーマーに基づく動的オンデマンドネットワーク(TransDoDNet)を提案する。
動的ヘッドにより、ネットワークは複数のセグメンテーションタスクを柔軟に達成することができる。
我々はMOTSと呼ばれる大規模にラベル付けされたMulti-Organ and tumorベンチマークを作成し、他の競合相手よりもTransDoDNetの方が優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-13T13:03:09Z) - A Transformer-based Generative Adversarial Network for Brain Tumor
Segmentation [4.394247741333439]
マルチモダリティMRIで脳腫瘍を自動分割するトランスフォーマーを用いた生成対向ネットワークを提案する。
我々のアーキテクチャは、min-maxゲーム進行のトレーニングを行うジェネレータと識別器で構成されている。
私たちが設計した識別器はCNNベースのマルチスケールのL_1$損失ネットワークであり、医用セマンティックイメージセグメンテーションに有効であることが証明されている。
論文 参考訳(メタデータ) (2022-07-28T14:55:18Z) - Dynamic Linear Transformer for 3D Biomedical Image Segmentation [2.440109381823186]
トランスフォーマーベースのニューラルネットワークは、多くのバイオメディカルイメージセグメンテーションタスクにおいて、有望なパフォーマンスを上回っている。
3次元トランスを用いた分割法の主な課題は、自己認識機構によって引き起こされる二次的複雑性である。
本稿では,エンコーダ・デコーダ方式の線形複雑化を用いた3次元医用画像分割のためのトランスフォーマアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-06-01T21:15:01Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - UNetFormer: A Unified Vision Transformer Model and Pre-Training
Framework for 3D Medical Image Segmentation [14.873473285148853]
UNetFormerと呼ばれる2つのアーキテクチャで構成され,3D Swin TransformerベースのエンコーダとConal Neural Network(CNN)とTransformerベースのデコーダを備えている。
提案モデルでは, 5つの異なる解像度でのスキップ接続により, エンコーダをデコーダにリンクする。
本稿では,ランダムにマスクされたトークンを予測する学習を通じて,エンコーダバックボーンの自己教師付き事前学習手法を提案する。
論文 参考訳(メタデータ) (2022-04-01T17:38:39Z) - Swin-Unet: Unet-like Pure Transformer for Medical Image Segmentation [63.46694853953092]
Swin-Unetは、医用画像セグメンテーション用のUnetライクなトランスフォーマーである。
トークン化されたイメージパッチは、TransformerベースのU字型デコーダデコーダアーキテクチャに供給される。
論文 参考訳(メタデータ) (2021-05-12T09:30:26Z) - UNETR: Transformers for 3D Medical Image Segmentation [8.59571749685388]
UNEt TRansformers(UNETR)と呼ばれる新しいアーキテクチャを導入し、純粋なトランスフォーマーをエンコーダとして入力ボリュームのシーケンス表現を学習します。
提案モデルの性能を様々なイメージング手法で広く検証しています。
論文 参考訳(メタデータ) (2021-03-18T20:17:15Z) - CoTr: Efficiently Bridging CNN and Transformer for 3D Medical Image
Segmentation [95.51455777713092]
畳み込みニューラルネットワーク(CNN)は、現代の3D医療画像セグメンテーションのデファクトスタンダードとなっている。
本稿では,bf畳み込みニューラルネットワークとbfトランスbf(cotr)を効率良く橋渡しし,正確な3次元医用画像分割を実現する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T13:34:22Z) - TransUNet: Transformers Make Strong Encoders for Medical Image
Segmentation [78.01570371790669]
医用画像のセグメンテーションは医療システムの開発に必須の前提条件である。
様々な医療画像セグメンテーションタスクにおいて、U-Netとして知られるu字型アーキテクチャがデファクトスタンダードとなっている。
医用画像セグメンテーションの強力な代替手段として,トランスフォーマーとU-Netの両方を有効活用するTransUNetを提案する。
論文 参考訳(メタデータ) (2021-02-08T16:10:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。