論文の概要: A Transformer-based Generative Adversarial Network for Brain Tumor
Segmentation
- arxiv url: http://arxiv.org/abs/2207.14134v2
- Date: Fri, 29 Jul 2022 01:48:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-01 10:35:46.834842
- Title: A Transformer-based Generative Adversarial Network for Brain Tumor
Segmentation
- Title(参考訳): 脳腫瘍分節のためのトランスフォーマベース生成逆ネットワーク
- Authors: Liqun Huang, Long Chen, Baihai Zhang, Senchun Chai
- Abstract要約: マルチモダリティMRIで脳腫瘍を自動分割するトランスフォーマーを用いた生成対向ネットワークを提案する。
我々のアーキテクチャは、min-maxゲーム進行のトレーニングを行うジェネレータと識別器で構成されている。
私たちが設計した識別器はCNNベースのマルチスケールのL_1$損失ネットワークであり、医用セマンティックイメージセグメンテーションに有効であることが証明されている。
- 参考スコア(独自算出の注目度): 4.394247741333439
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Brain tumor segmentation remains a challenge in medical image segmentation
tasks. With the application of transformer in various computer vision tasks,
transformer blocks show the capability of learning long-distance dependency in
global space, which is complementary with CNNs. In this paper, we proposed a
novel transformer-based generative adversarial network to automatically segment
brain tumors with multi-modalities MRI. Our architecture consists of a
generator and a discriminator, which are trained in min-max game progress. The
generator is based on a typical "U-shaped" encoder-decoder architecture, whose
bottom layer is composed of transformer blocks with resnet. Besides, the
generator is trained with deep supervision technology. The discriminator we
designed is a CNN-based network with multi-scale $L_{1}$ loss, which is proved
to be effective for medical semantic image segmentation. To validate the
effectiveness of our method, we conducted experiments on BRATS2015 dataset,
achieving comparable or better performance than previous state-of-the-art
methods.
- Abstract(参考訳): 脳腫瘍のセグメンテーションは、医療画像セグメンテーションにおける課題である。
様々なコンピュータビジョンタスクにおけるトランスフォーマーの適用により、トランスフォーマーブロックは、cnnと相補的なグローバル空間における長距離依存を学習する能力を示す。
本稿では,脳腫瘍をマルチモーダル性MRIで自動分割するトランスフォーマーを用いた生成対向ネットワークを提案する。
我々のアーキテクチャは、min-maxゲーム進行のトレーニングを行うジェネレータと識別器で構成されている。
ジェネレータは典型的なU字型エンコーダ・デコーダアーキテクチャに基づいており、底層はresnetでトランスフォーマーブロックで構成されている。
さらに、発電機は深い監視技術で訓練されている。
私たちが設計した識別器はCNNベースのネットワークであり、医療意味画像のセグメンテーションに有効であることが証明された。
本手法の有効性を検証するため,brats2015データセットを用いた実験を行い,従来の最先端手法と同等以上の性能を得た。
関連論文リスト
- Prototype Learning Guided Hybrid Network for Breast Tumor Segmentation in DCE-MRI [58.809276442508256]
本稿では,畳み込みニューラルネットワーク(CNN)とトランスフォーマー層を組み合わせたハイブリッドネットワークを提案する。
プライベートおよびパブリックなDCE-MRIデータセットの実験結果から,提案したハイブリッドネットワークは最先端の手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-08-11T15:46:00Z) - SeUNet-Trans: A Simple yet Effective UNet-Transformer Model for Medical
Image Segmentation [0.0]
医用画像セグメンテーションのためのシンプルなUNet-Transformer(seUNet-Trans)モデルを提案する。
提案手法では,UNetモデルを特徴抽出器として設計し,入力画像から複数の特徴マップを生成する。
UNetアーキテクチャと自己認識機構を活用することで、我々のモデルはローカルとグローバルの両方のコンテキスト情報を保存するだけでなく、入力要素間の長距離依存関係をキャプチャできる。
論文 参考訳(メタデータ) (2023-10-16T01:13:38Z) - 3D TransUNet: Advancing Medical Image Segmentation through Vision
Transformers [40.21263511313524]
医療画像のセグメンテーションは、疾患診断と治療計画のための医療システムの発展に重要な役割を担っている。
U-Netとして知られるU字型アーキテクチャは、様々な医療画像セグメンテーションタスクで高い成功を収めている。
これらの制限に対処するため、研究者たちはトランスフォーマー(Transformer)に転換した。
論文 参考訳(メタデータ) (2023-10-11T18:07:19Z) - Learning from partially labeled data for multi-organ and tumor
segmentation [102.55303521877933]
本稿では,トランスフォーマーに基づく動的オンデマンドネットワーク(TransDoDNet)を提案する。
動的ヘッドにより、ネットワークは複数のセグメンテーションタスクを柔軟に達成することができる。
我々はMOTSと呼ばれる大規模にラベル付けされたMulti-Organ and tumorベンチマークを作成し、他の競合相手よりもTransDoDNetの方が優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-13T13:03:09Z) - MISSU: 3D Medical Image Segmentation via Self-distilling TransUNet [55.16833099336073]
医用画像セグメンテーションのためのトランスフォーマーベースUNetを提案する。
グローバルな意味情報と局所的な空間的詳細特徴を同時に学習する。
MISSUは従来の最先端手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2022-06-02T07:38:53Z) - PHTrans: Parallelly Aggregating Global and Local Representations for
Medical Image Segmentation [7.140322699310487]
我々はPHTransと呼ばれる医用画像分割のための新しいハイブリッドアーキテクチャを提案する。
PHTransはTransformerとCNNを並列にハイブリッド化し、グローバルな特徴とローカルな特徴から階層的な表現を生成する。
論文 参考訳(メタデータ) (2022-03-09T08:06:56Z) - Swin UNETR: Swin Transformers for Semantic Segmentation of Brain Tumors
in MRI Images [7.334185314342017]
我々はSwin UNEt TRansformers(Swin UNETR)と呼ばれる新しいセグメンテーションモデルを提案する。
このモデルは、シフトしたウィンドウを利用して、5つの異なる解像度で特徴を抽出し、自己注意を演算する。
我々は、BraTS 2021セグメンテーションチャレンジに参加し、提案したモデルは、検証フェーズにおける最も優れたアプローチの1つである。
論文 参考訳(メタデータ) (2022-01-04T18:01:34Z) - UTNet: A Hybrid Transformer Architecture for Medical Image Segmentation [6.646135062704341]
トランスフォーマーアーキテクチャは多くの自然言語処理タスクで成功している。
医用画像セグメンテーションを強化するために,自己意識を畳み込みニューラルネットワークに統合する強力なハイブリッドトランスフォーマーアーキテクチャUTNetを提案する。
論文 参考訳(メタデータ) (2021-07-02T00:56:27Z) - Swin-Unet: Unet-like Pure Transformer for Medical Image Segmentation [63.46694853953092]
Swin-Unetは、医用画像セグメンテーション用のUnetライクなトランスフォーマーである。
トークン化されたイメージパッチは、TransformerベースのU字型デコーダデコーダアーキテクチャに供給される。
論文 参考訳(メタデータ) (2021-05-12T09:30:26Z) - Medical Transformer: Gated Axial-Attention for Medical Image
Segmentation [73.98974074534497]
医用画像分割タスクにおけるトランスフォーマティブネットワークアーキテクチャの利用可能性について検討する。
セルフアテンションモジュールに追加の制御機構を導入することで,既存のアーキテクチャを拡張するGated Axial-Attentionモデルを提案する。
医療画像上で効果的にモデルを訓練するために,さらにパフォーマンスを向上させる局所的グローバルトレーニング戦略 (logo) を提案する。
論文 参考訳(メタデータ) (2021-02-21T18:35:14Z) - TransUNet: Transformers Make Strong Encoders for Medical Image
Segmentation [78.01570371790669]
医用画像のセグメンテーションは医療システムの開発に必須の前提条件である。
様々な医療画像セグメンテーションタスクにおいて、U-Netとして知られるu字型アーキテクチャがデファクトスタンダードとなっている。
医用画像セグメンテーションの強力な代替手段として,トランスフォーマーとU-Netの両方を有効活用するTransUNetを提案する。
論文 参考訳(メタデータ) (2021-02-08T16:10:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。