論文の概要: Combining CNNs With Transformer for Multimodal 3D MRI Brain Tumor
Segmentation With Self-Supervised Pretraining
- arxiv url: http://arxiv.org/abs/2110.07919v1
- Date: Fri, 15 Oct 2021 08:03:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-19 00:07:37.881548
- Title: Combining CNNs With Transformer for Multimodal 3D MRI Brain Tumor
Segmentation With Self-Supervised Pretraining
- Title(参考訳): マルチモーダル3次元MRI脳腫瘍分離のためのCNNとトランスフォーマーの併用と自己超過事前トレーニング
- Authors: Mariia Dobko, Danylo-Ivan Kolinko, Ostap Viniavskyi, Yurii Yelisieiev
- Abstract要約: 改良されたTransBTSとnnU-Netのアンサンブルと、BraTS 2021チャレンジのセグメンテーションタスクの組合せを適用する。
アンサンブルは0.8496, 0.8698, 0.9256ディススコア、15.72, 11.057, 3.374 HD95を達成し、腫瘍、腫瘍コア、腫瘍全体を増強する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We apply an ensemble of modified TransBTS, nnU-Net, and a combination of both
for the segmentation task of the BraTS 2021 challenge. In fact, we change the
original architecture of the TransBTS model by adding Squeeze-and-Excitation
blocks, an increasing number of CNN layers, replacing positional encoding in
Transformer block with a learnable Multilayer Perceptron (MLP) embeddings,
which makes Transformer adjustable to any input size during inference. With
these modifications, we are able to largely improve TransBTS performance.
Inspired by a nnU-Net framework we decided to combine it with our modified
TransBTS by changing the architecture inside nnU-Net to our custom model. On
the Validation set of BraTS 2021, the ensemble of these approaches achieves
0.8496, 0.8698, 0.9256 Dice score and 15.72, 11.057, 3.374 HD95 for enhancing
tumor, tumor core, and whole tumor, correspondingly. Our code is publicly
available.
- Abstract(参考訳): 改良されたTransBTSとnnU-Netのアンサンブルと、BraTS 2021チャレンジのセグメンテーションタスクに組み合わせて適用する。
実際、transbtsモデルの本来のアーキテクチャは、スクイーズ・アンド・エクシテーション・ブロックの追加、cnn層の増加、トランスフォーマーブロックの位置符号化を学習可能な多層パーセプトロン(mlp)埋め込みに置き換えることで変更され、推論中の入力サイズに合わせてトランスフォーマーが調整可能になる。
これらの変更により、transbtsのパフォーマンスが大幅に向上します。
nnU-Netフレームワークにインスパイアされた私たちは、nnU-Net内部のアーキテクチャをカスタムモデルに変更することで、変更したTransBTSと組み合わせることにしました。
BraTS 2021の検証セットでは、これらのアプローチのアンサンブルは0.8496, 0.8698, 0.9256 Dice scoreと15.72, 11.057, 3.374 HD95を達成し、腫瘍、腫瘍コア、腫瘍全体を強化する。
私たちのコードは公開されています。
関連論文リスト
- Multi-Aperture Fusion of Transformer-Convolutional Network (MFTC-Net) for 3D Medical Image Segmentation and Visualization [1.3749490831384268]
本稿では, トランスフォーマー・畳み込みネットワーク(MFTC-Net)のマルチアパーチャ融合について紹介する。
Swin Transformerの出力とそれに対応する畳み込みブロックを3D融合ブロックを使って統合する。
提案したアーキテクチャは、それぞれDiceとHD95に対して89.73と7.31のスコアを示している。
論文 参考訳(メタデータ) (2024-06-24T19:09:20Z) - ConvFormer: Combining CNN and Transformer for Medical Image Segmentation [17.88894109620463]
医用画像分割のための階層型CNNとTransformerハイブリッドアーキテクチャであるConvFormerを提案する。
ゼロからトレーニングされたConvFormerは、さまざまなCNNやTransformerベースのアーキテクチャより優れ、最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2022-11-15T23:11:22Z) - 3D UX-Net: A Large Kernel Volumetric ConvNet Modernizing Hierarchical
Transformer for Medical Image Segmentation [5.635173603669784]
本研究では,高機能なボリュームセグメンテーションのために,ConvNetモジュールを用いた階層型トランスフォーマを適応させる3D UX-Netという軽量なボリュームトリビュータを提案する。
具体的には、Swin Transformerにインスパイアされた大規模なグローバルな受容フィールドを実現するために、大きなカーネルサイズ(例:7.7times7$から始まる)でボリュームの奥行きの畳み込みを再検討する。
論文 参考訳(メタデータ) (2022-09-29T19:54:13Z) - MISSU: 3D Medical Image Segmentation via Self-distilling TransUNet [55.16833099336073]
医用画像セグメンテーションのためのトランスフォーマーベースUNetを提案する。
グローバルな意味情報と局所的な空間的詳細特徴を同時に学習する。
MISSUは従来の最先端手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2022-06-02T07:38:53Z) - TransBTSV2: Wider Instead of Deeper Transformer for Medical Image
Segmentation [12.85662034471981]
医用3次元画像分割のための3次元CNNのトランスフォーマーを利用する。
本稿では, Encoder-decoder 構造に基づく TransBTSV2 という新しいネットワークを提案する。
ハイブリッドCNN-Transformerアーキテクチャとして、TransBTSV2は、事前トレーニングなしで正確な医療画像のセグメンテーションを実現することができる。
論文 参考訳(メタデータ) (2022-01-30T11:00:34Z) - BiTr-Unet: a CNN-Transformer Combined Network for MRI Brain Tumor
Segmentation [2.741266294612776]
マルチモーダルMRIスキャンにおける脳腫瘍セグメント化のための,BiTr-Unetと呼ばれるCNN-Transformer複合モデルを提案する。
The proposed BiTr-Unet is a good performance on the BraTS 2021 validation dataset with mean Dice score 0.9076, 0.8392 and 0.8231, and mean Hausdorff distance 4.5322, 13.4592 and 14.9963 for the entire tumor, tumor core, and enhance tumor。
論文 参考訳(メタデータ) (2021-09-25T04:18:34Z) - A Battle of Network Structures: An Empirical Study of CNN, Transformer,
and MLP [121.35904748477421]
畳み込みニューラルネットワーク(CNN)は、コンピュータビジョンのための支配的なディープニューラルネットワーク(DNN)アーキテクチャである。
トランスフォーマーとマルチ層パーセプトロン(MLP)ベースのモデル(Vision TransformerやVision-Mixer)が新しいトレンドを導い始めた。
本稿では,これらのDNN構造について実証的研究を行い,それぞれの長所と短所を理解しようとする。
論文 参考訳(メタデータ) (2021-08-30T06:09:02Z) - Container: Context Aggregation Network [83.12004501984043]
最近の発見は、従来の畳み込みやトランスフォーマーコンポーネントを使わずに、シンプルなベースのソリューションが効果的な視覚表現を生成できることを示している。
マルチヘッドコンテキストアグリゲーションのための汎用ビルディングブロックCONText Ion NERtwokを提案する。
より大規模な入力画像解像度に依存する下流タスクにはスケールしないTransformerベースの手法とは対照的に、当社の効率的なネットワークであるModellightは、オブジェクト検出やインスタンスセグメンテーションネットワークに利用することができる。
論文 参考訳(メタデータ) (2021-06-02T18:09:11Z) - CoTr: Efficiently Bridging CNN and Transformer for 3D Medical Image
Segmentation [95.51455777713092]
畳み込みニューラルネットワーク(CNN)は、現代の3D医療画像セグメンテーションのデファクトスタンダードとなっている。
本稿では,bf畳み込みニューラルネットワークとbfトランスbf(cotr)を効率良く橋渡しし,正確な3次元医用画像分割を実現する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T13:34:22Z) - TransUNet: Transformers Make Strong Encoders for Medical Image
Segmentation [78.01570371790669]
医用画像のセグメンテーションは医療システムの開発に必須の前提条件である。
様々な医療画像セグメンテーションタスクにおいて、U-Netとして知られるu字型アーキテクチャがデファクトスタンダードとなっている。
医用画像セグメンテーションの強力な代替手段として,トランスフォーマーとU-Netの両方を有効活用するTransUNetを提案する。
論文 参考訳(メタデータ) (2021-02-08T16:10:50Z) - Tensor-to-Vector Regression for Multi-channel Speech Enhancement based
on Tensor-Train Network [53.47564132861866]
マルチチャネル音声強調のためのテンソル-ベクトル回帰手法を提案する。
キーとなる考え方は、従来のディープニューラルネットワーク(DNN)ベースのベクトル-ベクトル回帰の定式化を、テンソル-トレインネットワーク(TTN)フレームワークで行うことである。
8チャンネル条件では、3.12のPSSQはTTNの2000万のパラメータを使用して達成されるが、6800万のパラメータを持つDNNは3.06のPSSQしか達成できない。
論文 参考訳(メタデータ) (2020-02-03T02:58:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。