論文の概要: 3D-TransUNet for Brain Metastases Segmentation in the BraTS2023 Challenge
- arxiv url: http://arxiv.org/abs/2403.15735v1
- Date: Sat, 23 Mar 2024 06:03:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-26 21:22:21.673819
- Title: 3D-TransUNet for Brain Metastases Segmentation in the BraTS2023 Challenge
- Title(参考訳): BraTS2023チャレンジにおける脳転移セグメンテーションのための3D-TransUNet
- Authors: Siwei Yang, Xianhang Li, Jieru Mei, Jieneng Chen, Cihang Xie, Yuyin Zhou,
- Abstract要約: 我々は,脳腫瘍(BraTS-METS)2023チャレンジにおける3D-TransUNetモデルのトレーニングによって脳転移のセグメンテーションに対処する。
Decoderのみの3D-TransUNetモデルの使用はすでに顕著な結果をもたらしており、平均的な病変度Diceスコアは59.8%である。
- 参考スコア(独自算出の注目度): 33.755429154724546
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Segmenting brain tumors is complex due to their diverse appearances and scales. Brain metastases, the most common type of brain tumor, are a frequent complication of cancer. Therefore, an effective segmentation model for brain metastases must adeptly capture local intricacies to delineate small tumor regions while also integrating global context to understand broader scan features. The TransUNet model, which combines Transformer self-attention with U-Net's localized information, emerges as a promising solution for this task. In this report, we address brain metastases segmentation by training the 3D-TransUNet model on the Brain Tumor Segmentation (BraTS-METS) 2023 challenge dataset. Specifically, we explored two architectural configurations: the Encoder-only 3D-TransUNet, employing Transformers solely in the encoder, and the Decoder-only 3D-TransUNet, utilizing Transformers exclusively in the decoder. For Encoder-only 3D-TransUNet, we note that Masked-Autoencoder pre-training is required for a better initialization of the Transformer Encoder and thus accelerates the training process. We identify that the Decoder-only 3D-TransUNet model should offer enhanced efficacy in the segmentation of brain metastases, as indicated by our 5-fold cross-validation on the training set. However, our use of the Encoder-only 3D-TransUNet model already yield notable results, with an average lesion-wise Dice score of 59.8\% on the test set, securing second place in the BraTS-METS 2023 challenge.
- Abstract(参考訳): 脳腫瘍の分節は、様々な外観とスケールのために複雑である。
最も一般的なタイプの脳腫瘍である脳転移は、しばしばがんの合併症である。
そのため、脳転移の効果的な分節モデルでは、局所的な複雑さを十分に捉えて、小さな腫瘍領域を規定すると同時に、より広いスキャン特徴を理解するために、グローバルなコンテキストを統合する必要がある。
TransUNetモデルは、Transformerの自己アテンションとU-Netのローカライズされた情報を組み合わせることで、このタスクの有望な解決策として現れる。
本稿では,脳腫瘍分離(BraTS-METS)2023チャレンジデータセット上での3D-TransUNetモデルのトレーニングにより脳転移のセグメンテーションに対処する。
具体的には,エンコーダのみの3D-TransUNet,デコーダのみの3D-TransUNet,デコーダのみの3D-TransUNet,デコーダのみの3D-TransUNetの2つのアーキテクチャ構成について検討した。
Encoderのみの3D-TransUNetでは、Transformer Encoderのより優れた初期化のためにMasked-Autoencoderの事前トレーニングが必要であり、トレーニングプロセスの高速化に留意する。
Decoderのみの3D-TransUNetモデルは、トレーニングセット上の5倍のクロスバリデーションで示されるように、脳転移のセグメンテーションにおける有効性を高めるべきである。
しかし、Encoderのみの3D-TransUNetモデルの使用はすでに顕著な結果をもたらしており、平均的な病変度Diceスコアは59.8\%であり、BraTS-METS 2023チャレンジでは2位となった。
関連論文リスト
- 3D TransUNet: Advancing Medical Image Segmentation through Vision
Transformers [40.21263511313524]
医療画像のセグメンテーションは、疾患診断と治療計画のための医療システムの発展に重要な役割を担っている。
U-Netとして知られるU字型アーキテクチャは、様々な医療画像セグメンテーションタスクで高い成功を収めている。
これらの制限に対処するため、研究者たちはトランスフォーマー(Transformer)に転換した。
論文 参考訳(メタデータ) (2023-10-11T18:07:19Z) - Multi-dimension unified Swin Transformer for 3D Lesion Segmentation in
Multiple Anatomical Locations [1.7413461132662074]
3次元病変分割のためのMDU-ST(multi-dimension unified Swin transformer)と呼ばれる新しいモデルを提案する。
ネットワークの性能はDice similarity coefficient(DSC)とHausdorff distance(HD)で内部の3D病変データセットを用いて評価される。
提案手法は, 放射線学および腫瘍成長モデル研究を支援するために, 自動3次元病変セグメンテーションを行うために用いられる。
論文 参考訳(メタデータ) (2023-09-04T21:24:00Z) - 3DSAM-adapter: Holistic adaptation of SAM from 2D to 3D for promptable tumor segmentation [52.699139151447945]
医用画像の領域分割を行うために, SAMを2次元から3次元に変換する新しい適応法を提案する。
本モデルでは, 腎腫瘍, 膵腫瘍, 大腸癌の3つのタスクのうち8.25%, 29.87%, 10.11%の3つのタスクにおいて, ドメイン・オブ・ザ・アーティヴ・メディカル・イメージ・セグメンテーション・モデルより優れ, 肝腫瘍セグメンテーションでも同様の性能が得られる。
論文 参考訳(メタデータ) (2023-06-23T12:09:52Z) - View-Disentangled Transformer for Brain Lesion Detection [50.4918615815066]
より正確な腫瘍検出のためのMRI特徴抽出のための新しいビューディペンタングル変換器を提案する。
まず, 3次元脳スキャンにおいて, 異なる位置の長距離相関を求める。
第二に、トランスフォーマーはスライス機能のスタックを複数の2Dビューとしてモデル化し、これらの機能をビュー・バイ・ビューとして拡張する。
第三に、提案したトランスモジュールをトランスのバックボーンに展開し、脳病変を取り巻く2D領域を効果的に検出する。
論文 参考訳(メタデータ) (2022-09-20T11:58:23Z) - Focused Decoding Enables 3D Anatomical Detection by Transformers [64.36530874341666]
集束デコーダと呼ばれる3次元解剖学的構造検出のための新しい検出変換器を提案する。
Focused Decoderは、解剖学的領域のアトラスからの情報を活用して、クエリアンカーを同時にデプロイし、クロスアテンションの視野を制限する。
提案手法を利用可能な2つのCTデータセットに対して評価し、フォーカスドデコーダが強力な検出結果を提供するだけでなく、大量の注釈付きデータの必要性を軽減し、注意重みによる結果の例外的で直感的な説明性を示すことを示した。
論文 参考訳(メタデータ) (2022-07-21T22:17:21Z) - MISSU: 3D Medical Image Segmentation via Self-distilling TransUNet [55.16833099336073]
医用画像セグメンテーションのためのトランスフォーマーベースUNetを提案する。
グローバルな意味情報と局所的な空間的詳細特徴を同時に学習する。
MISSUは従来の最先端手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2022-06-02T07:38:53Z) - A Volumetric Transformer for Accurate 3D Tumor Segmentation [25.961484035609672]
本稿では,医療画像セグメンテーションのためのトランスフォーマーアーキテクチャを提案する。
TransformerはU字型のボリュームエンコーダデコーダ設計で、入力ボクセル全体を処理している。
モデルがデータセット間でより良い表現を転送し、データの破損に対して堅牢であることを示します。
論文 参考訳(メタデータ) (2021-11-26T02:49:51Z) - TransBTS: Multimodal Brain Tumor Segmentation Using Transformer [9.296315610803985]
エンコーダデコーダ構造に基づくTransBTSという新しいネットワークを提案する。
ローカルな3Dコンテキスト情報をキャプチャするために、エンコーダはまず3D CNNを使用してボリューム特徴マップを抽出する。
一方、機能マップは、グローバル機能モデリングのためにTransformerに供給されるトークンのために精巧に再構成されます。
論文 参考訳(メタデータ) (2021-03-07T19:12:14Z) - TransUNet: Transformers Make Strong Encoders for Medical Image
Segmentation [78.01570371790669]
医用画像のセグメンテーションは医療システムの開発に必須の前提条件である。
様々な医療画像セグメンテーションタスクにおいて、U-Netとして知られるu字型アーキテクチャがデファクトスタンダードとなっている。
医用画像セグメンテーションの強力な代替手段として,トランスフォーマーとU-Netの両方を有効活用するTransUNetを提案する。
論文 参考訳(メタデータ) (2021-02-08T16:10:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。