論文の概要: Automatic Brain Tumor Segmentation with Scale Attention Network
- arxiv url: http://arxiv.org/abs/2011.03188v3
- Date: Wed, 25 Nov 2020 19:16:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 05:16:18.166558
- Title: Automatic Brain Tumor Segmentation with Scale Attention Network
- Title(参考訳): スケールアテンションネットワークを用いた脳腫瘍自動分割
- Authors: Yading Yuan
- Abstract要約: マルチモーダル脳腫瘍チャレンジ2020(BraTS 2020)は、マルチパラメトリック磁気共鳴イメージング(mpMRI)で異なる自動アルゴリズムを比較する共通のプラットフォームを提供する
本稿では,異なるスケールで特徴写像から高レベルな意味論を取り入れた,低レベルな細部を取り入れた動的スケールアテンション機構を提案する。
術式はBraTS 2020で提供した369症例を用いて訓練し, 平均Dice similarity Coefficient (DSC) は0.8828, 0.8433, 0.8177, Hausdorff は95%, 5.2176, 17.9697, 13.4298 であった。
- 参考スコア(独自算出の注目度): 1.7767466724342065
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automatic segmentation of brain tumors is an essential but challenging step
for extracting quantitative imaging biomarkers for accurate tumor detection,
diagnosis, prognosis, treatment planning and assessment. Multimodal Brain Tumor
Segmentation Challenge 2020 (BraTS 2020) provides a common platform for
comparing different automatic algorithms on multi-parametric Magnetic Resonance
Imaging (mpMRI) in tasks of 1) Brain tumor segmentation MRI scans; 2)
Prediction of patient overall survival (OS) from pre-operative MRI scans; 3)
Distinction of true tumor recurrence from treatment related effects and 4)
Evaluation of uncertainty measures in segmentation. We participate the image
segmentation challenge by developing a fully automatic segmentation network
based on encoder-decoder architecture. In order to better integrate information
across different scales, we propose a dynamic scale attention mechanism that
incorporates low-level details with high-level semantics from feature maps at
different scales. Our framework was trained using the 369 challenge training
cases provided by BraTS 2020, and achieved an average Dice Similarity
Coefficient (DSC) of 0.8828, 0.8433 and 0.8177, as well as 95% Hausdorff
distance (in millimeter) of 5.2176, 17.9697 and 13.4298 on 166 testing cases
for whole tumor, tumor core and enhanced tumor, respectively, which ranked
itself as the 3rd place among 693 registrations in the BraTS 2020 challenge.
- Abstract(参考訳): 脳腫瘍の自動セグメンテーションは、正確な腫瘍検出、診断、予後、治療計画、評価のための定量的イメージングバイオマーカーを抽出するために必要なステップである。
Multimodal Brain tumor Segmentation Challenge 2020 (BraTS 2020)は、マルチパラメトリック磁気共鳴イメージング(mpMRI)における異なる自動アルゴリズムを比較する共通プラットフォームを提供する。
1)脳腫瘍セグメンテーションMRIスキャン
2)術前mriによる全生存率(os)の予測
3)治療関連効果と真腫瘍再発の鑑別
4)セグメンテーションにおける不確実性の評価。
我々は,エンコーダ・デコーダアーキテクチャに基づく完全自動セグメンテーションネットワークを開発することで,画像セグメンテーションチャレンジに参加する。
異なるスケールの情報をよりよく統合するために,異なるスケールで機能マップから高レベルなセマンティクスに低レベルの詳細を組み込む動的スケールアテンション機構を提案する。
当フレームワークはBraTS 2020の369症例を対象にトレーニングを行い,平均Dice similarity Coefficient (DSC) は0.8828, 0.8433, 0.8177, 95% Hausdorff distance (mm) は5.2176, 17.9697, 13.4298で, 全腫瘍, 腫瘍コア, 造影腫瘍の166症例でそれぞれ5.2176, 17.9697, 13.4298であり,BraTS 2020の693件のうち3位にランクインした。
関連論文リスト
- Mask-Enhanced Segment Anything Model for Tumor Lesion Semantic
Segmentation [49.916468280857885]
Mask-Enhanced SAM (M-SAM) は3次元腫瘍病変の分節に適した革新的なアーキテクチャである。
本稿では,M-SAM内におけるMask-Enhanced Adapter (MEA) を提案する。
論文 参考訳(メタデータ) (2024-03-09T13:37:02Z) - An Optimization Framework for Processing and Transfer Learning for the
Brain Tumor Segmentation [2.0886519175557368]
我々は脳腫瘍セグメント化のための3次元U-Netモデルに基づく最適化フレームワークを構築した。
このフレームワークには、さまざまな前処理や後処理技術、トランスファーラーニングなど、さまざまなテクニックが組み込まれている。
検証データセット上で、この多モード脳腫瘍セグメンテーションフレームワークは、それぞれチャレンジ1、2、3におけるDiceスコア平均0.79、0.72、0.74を達成する。
論文 参考訳(メタデータ) (2024-02-10T18:03:15Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z) - Ensemble CNN Networks for GBM Tumors Segmentation using Multi-parametric
MRI [0.0]
本稿では,術前の mpMRI におけるグリオーマの自動認識のための,DeepSeg と nnU-Net という2つのディープラーニングフレームワークのアグリゲーションを提案する。
本手法では, 腫瘍, 腫瘍コア, 全腫瘍領域のDice類似度スコアが92.00, 87.33, 84.10, Hausdorff Distances 3.81, 8.91, 16.02を得た。
論文 参考訳(メタデータ) (2021-12-13T10:51:20Z) - 3D AGSE-VNet: An Automatic Brain Tumor MRI Data Segmentation Framework [3.0261170901794308]
グリオーマは最も一般的な脳悪性腫瘍であり、高い死亡率と3%以上の死亡率を有する。
このクリニックで脳腫瘍を取得する主要な方法は、マルチモーダルMRIスキャン画像から脳腫瘍領域のMRIである。
我々はAGSE-VNetと呼ばれる自動脳腫瘍MRIデータセグメンテーションフレームワークを提案する。
論文 参考訳(メタデータ) (2021-07-26T09:04:59Z) - Multi-stage Deep Layer Aggregation for Brain Tumor Segmentation [2.324913904215885]
アーキテクチャは、3つのDeep Layer Aggregationニューラルネットワークからなるカスケードで構成されており、各ステージは、機能マップと前のステージの確率を使用して応答を詳細化する。
神経画像データは、一般公開されたBrain Tumor (BraTS) 2020チャレンジデータセットの一部です。
実験では, 腫瘍, コア腫瘍, 造影腫瘍全例に対して, 0.8858, 0.8297, 0.7900, ハウスドルフ距離 5.32 mm, 22.32 mm, 20.44 mmのdiceスコアを得た。
論文 参考訳(メタデータ) (2021-01-02T17:59:30Z) - H2NF-Net for Brain Tumor Segmentation using Multimodal MR Imaging: 2nd
Place Solution to BraTS Challenge 2020 Segmentation Task [96.49879910148854]
当社のH2NF-Netは、単一およびカスケードのHNF-Netを使用して、異なる脳腫瘍サブリージョンを分割します。
我々は、マルチモーダル脳腫瘍チャレンジ(BraTS)2020データセットでモデルをトレーニングし、評価した。
提案手法は,80名近い参加者のうち,brats 2020チャレンジセグメンテーションタスクで2位となった。
論文 参考訳(メタデータ) (2020-12-30T20:44:55Z) - Brain tumor segmentation with self-ensembled, deeply-supervised 3D U-net
neural networks: a BraTS 2020 challenge solution [56.17099252139182]
U-netのようなニューラルネットワークを用いた脳腫瘍セグメント化作業の自動化と標準化を行う。
2つの独立したモデルのアンサンブルが訓練され、それぞれが脳腫瘍のセグメンテーションマップを作成した。
我々の解は、最終試験データセットにおいて、Diceの0.79、0.89、0.84、およびHausdorffの95%の20.4、6.7、19.5mmを達成した。
論文 参考訳(メタデータ) (2020-10-30T14:36:10Z) - Region of Interest Identification for Brain Tumors in Magnetic Resonance
Images [8.75217589103206]
そこで我々は,腫瘍周辺で最小の境界ボックスを見つけるために,軽量計算量で高速かつ自動化された手法を提案する。
この領域は、サブリージョン腫瘍セグメンテーションのトレーニングネットワークにおける前処理ステップとして使用できる。
提案手法は BraTS 2015 データセット上で評価され,得られた平均 DICE スコアは 0.73 である。
論文 参考訳(メタデータ) (2020-02-26T14:10:40Z) - VerSe: A Vertebrae Labelling and Segmentation Benchmark for
Multi-detector CT Images [121.31355003451152]
大規模Vertebrae Challenge(VerSe)は、2019年と2020年に開催されたMICCAI(International Conference on Medical Image Computing and Computer Assisted Intervention)と共同で設立された。
本評価の結果を報告するとともに,脊椎レベル,スキャンレベル,および異なる視野での性能変化について検討した。
論文 参考訳(メタデータ) (2020-01-24T21:09:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。