論文の概要: Brain tumour segmentation using a triplanar ensemble of U-Nets
- arxiv url: http://arxiv.org/abs/2105.11356v1
- Date: Mon, 24 May 2021 15:39:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-25 18:39:30.940701
- Title: Brain tumour segmentation using a triplanar ensemble of U-Nets
- Title(参考訳): U-Netのトリラナーアンサンブルを用いた脳腫瘍切除
- Authors: Vaanathi Sundaresan, Ludovica Griffanti, Mark Jenkinson
- Abstract要約: そこで本稿では,正確な腫瘍セグメンテーションを行うために,独立した腫瘍コア予測モジュールを備えたトリラナーアンサンブルネットワークを提案する。
MICCAI Brain tumor (BraTS) Challenge Validation データセットの評価において,腫瘍(ET)および腫瘍コア(TC)を増強するためのDice係数0.77を達成した。
提案手法はBraTS'20チャレンジにおいて, ET, WT, TC領域で平均Dice値0.81, 0.89, 0.84の5番目に高い値(第10位)であった。
- 参考スコア(独自算出の注目度): 0.4125187280299248
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Gliomas appear with wide variation in their characteristics both in terms of
their appearance and location on brain MR images, which makes robust tumour
segmentation highly challenging, and leads to high inter-rater variability even
in manual segmentations. In this work, we propose a triplanar ensemble network,
with an independent tumour core prediction module, for accurate segmentation of
these tumours and their sub-regions. On evaluating our method on the MICCAI
Brain Tumor Segmentation (BraTS) challenge validation dataset, for tumour
sub-regions, we achieved a Dice similarity coefficient of 0.77 for both
enhancing tumour (ET) and tumour core (TC). In the case of the whole tumour
(WT) region, we achieved a Dice value of 0.89, which is on par with the
top-ranking methods from BraTS'17-19. Our method achieved an evaluation score
that was the equal 5th highest value (with our method ranking in 10th place) in
the BraTS'20 challenge, with mean Dice values of 0.81, 0.89 and 0.84 on ET, WT
and TC regions respectively on the BraTS'20 unseen test dataset.
- Abstract(参考訳): グリオーマは、その外観と脳MR画像上の位置の両方において、その特徴に大きく変化しており、堅牢な腫瘍の分節は非常に困難であり、手動の分節においても高いレーザー間変動をもたらす。
本研究では,これらの腫瘍とそのサブ領域の正確なセグメンテーションのために,独立した腫瘍コア予測モジュールを備えたトリプラナーアンサンブルネットワークを提案する。
腫瘍部分領域に対するmiccai brain tumor segmentation (brats) challenge validation datasetの評価を行った結果, 腫瘍(et)と腫瘍コア(tc)のいずれにおいても, dice類似度係数0.77を得た。
全腫瘍領域 (wt) では0.89のサイス値を達成し,brats'17-19の上位の方法に匹敵する値を得た。
提案手法は,BraTS'20テストデータセットにおいて,ET,WT,TCの各領域の平均Dice値は0.81,0.89,0.84であり,BraTS'20チャレンジでは5位(第10位)であった。
関連論文リスト
- Training and Comparison of nnU-Net and DeepMedic Methods for
Autosegmentation of Pediatric Brain Tumors [0.08519384144663283]
ディープラーニングに基づく2つの3DセグメンテーションモデルであるDeepMedicとnnU-Netを比較した。
小児特異的に訓練されたnnU-Netモデルは、小児脳腫瘍の全腫瘍および亜領域のセグメンテーションにおいてDeepMedicよりも優れている。
論文 参考訳(メタデータ) (2024-01-16T14:44:06Z) - Attention-based Saliency Maps Improve Interpretability of Pneumothorax
Classification [52.77024349608834]
視覚変換器(ViT)の胸部X線撮影(CXR)分類性能と注意ベース唾液の解釈可能性について検討する。
ViTは、CheXpert、Chest X-Ray 14、MIMIC CXR、VinBigDataの4つの公開データセットを用いて、肺疾患分類のために微調整された。
ViTsは最先端のCNNと比べてCXR分類AUCに匹敵するものであった。
論文 参考訳(メタデータ) (2023-03-03T12:05:41Z) - Multi-class Brain Tumor Segmentation using Graph Attention Network [3.3635982995145994]
この研究は、MRIとグラフニューラルネットワーク(GNN)の進歩を生かして、効率的な脳腫瘍要約モデルを導入する。
このモデルは、ボリュームMRIを領域隣接グラフ(RAG)として表現し、グラフ注意ネットワーク(GAT)を通して腫瘍の種類を特定することを学習する。
論文 参考訳(メタデータ) (2023-02-11T04:30:40Z) - Multimodal CNN Networks for Brain Tumor Segmentation in MRI: A BraTS
2022 Challenge Solution [0.0]
この記事では、BraTS 2022の継続的評価課題への私たちの貢献について説明する。
術前MRIにおけるグリオーマ境界の自動検出のための,DeepSeg,nnU-Net,DeepSCANという,複数のディープラーニングフレームワークのアンサンブルを提案する。
Diceスコアが0.9294、0.8788、0.8803、Hausdorf距離が5.23、13.54、12.05のBraTSテストデータセットで、腫瘍全体、腫瘍コア、造影腫瘍をそれぞれ評価した。
論文 参考訳(メタデータ) (2022-12-19T09:14:23Z) - Hybrid Window Attention Based Transformer Architecture for Brain Tumor
Segmentation [28.650980942429726]
細かな特徴を抽出するための2つのウィンドウ化戦略に従うボリューム視覚変換器を提案する。
FeTS Challenge 2022データセット上で,ネットワークアーキテクチャをトレーニングし,評価した。
オンライン検証データセットのパフォーマンスは以下の通りである。 Dice similarity Score of 81.71%, 91.38%, 85.40%。
論文 参考訳(メタデータ) (2022-09-16T03:55:48Z) - HNF-Netv2 for Brain Tumor Segmentation using multi-modal MR Imaging [86.52489226518955]
我々は,HNF-NetをHNF-Netv2に拡張する。
我々の方法は、RSNA 2021脳腫瘍AIチャレンジ賞(セグメンテーション・タスク)を受賞しました。
論文 参考訳(メタデータ) (2022-02-10T06:34:32Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - H2NF-Net for Brain Tumor Segmentation using Multimodal MR Imaging: 2nd
Place Solution to BraTS Challenge 2020 Segmentation Task [96.49879910148854]
当社のH2NF-Netは、単一およびカスケードのHNF-Netを使用して、異なる脳腫瘍サブリージョンを分割します。
我々は、マルチモーダル脳腫瘍チャレンジ(BraTS)2020データセットでモデルをトレーニングし、評価した。
提案手法は,80名近い参加者のうち,brats 2020チャレンジセグメンテーションタスクで2位となった。
論文 参考訳(メタデータ) (2020-12-30T20:44:55Z) - Brain tumor segmentation with self-ensembled, deeply-supervised 3D U-net
neural networks: a BraTS 2020 challenge solution [56.17099252139182]
U-netのようなニューラルネットワークを用いた脳腫瘍セグメント化作業の自動化と標準化を行う。
2つの独立したモデルのアンサンブルが訓練され、それぞれが脳腫瘍のセグメンテーションマップを作成した。
我々の解は、最終試験データセットにおいて、Diceの0.79、0.89、0.84、およびHausdorffの95%の20.4、6.7、19.5mmを達成した。
論文 参考訳(メタデータ) (2020-10-30T14:36:10Z) - Segmentation of the Myocardium on Late-Gadolinium Enhanced MRI based on
2.5 D Residual Squeeze and Excitation Deep Learning Model [55.09533240649176]
本研究の目的は,LGE-MRIを用いた心筋境界領域の深部学習モデルに基づく正確な自動セグメンテーション法を開発することである。
合計320回の試験(平均6回の試験)と28回の試験が行われた。
ベーススライスとミドルスライスにおけるアンサンブルモデルの性能解析は, サーバ内調査と同等であり, アトピーススライスではわずかに低かった。
論文 参考訳(メタデータ) (2020-05-27T20:44:38Z) - Vox2Vox: 3D-GAN for Brain Tumour Segmentation [0.0]
脳腫瘍の分節化のための3Dボリューム・ツー・ボリューム・ジェネレーティブ・アドリアネットワークを提案する。
Vox2VoxはマルチチャネルMR画像からリアルなセグメンテーション出力を生成する。
論文 参考訳(メタデータ) (2020-03-19T18:57:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。