論文の概要: HI-Net: Hyperdense Inception 3D UNet for Brain Tumor Segmentation
- arxiv url: http://arxiv.org/abs/2012.06760v1
- Date: Sat, 12 Dec 2020 09:09:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-10 09:17:38.166934
- Title: HI-Net: Hyperdense Inception 3D UNet for Brain Tumor Segmentation
- Title(参考訳): HI-Net:脳腫瘍分離のためのハイパーセンスインセプション3D UNet
- Authors: Saqib Qamar, Parvez Ahmad, Linlin Shen
- Abstract要約: 本稿では,3次元重み付き畳み込み層を積み重ねることで,マルチスケール情報を取得するハイパーデンスインセプション3D UNet(HI-Net)を提案する。
BRATS 2020テストセットの予備結果は、提案されたアプローチにより、ET、WT、TCのダイス(DSC)スコアがそれぞれ0.79457、0.87494、0.83712であることを示しています。
- 参考スコア(独自算出の注目度): 17.756591105686
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The brain tumor segmentation task aims to classify tissue into the whole
tumor (WT), tumor core (TC), and enhancing tumor (ET) classes using multimodel
MRI images. Quantitative analysis of brain tumors is critical for clinical
decision making. While manual segmentation is tedious, time-consuming, and
subjective, this task is at the same time very challenging to automatic
segmentation methods. Thanks to the powerful learning ability, convolutional
neural networks (CNNs), mainly fully convolutional networks, have shown
promising brain tumor segmentation. This paper further boosts the performance
of brain tumor segmentation by proposing hyperdense inception 3D UNet (HI-Net),
which captures multi-scale information by stacking factorization of 3D weighted
convolutional layers in the residual inception block. We use hyper dense
connections among factorized convolutional layers to extract more contexual
information, with the help of features reusability. We use a dice loss function
to cope with class imbalances. We validate the proposed architecture on the
multi-modal brain tumor segmentation challenges (BRATS) 2020 testing dataset.
Preliminary results on the BRATS 2020 testing set show that achieved by our
proposed approach, the dice (DSC) scores of ET, WT, and TC are 0.79457,
0.87494, and 0.83712, respectively.
- Abstract(参考訳): 脳腫瘍セグメンテーションタスクは、組織を腫瘍全体(WT)、腫瘍コア(TC)、マルチモデルMRI画像を用いた腫瘍クラス(ET)に分類することを目的としている。
脳腫瘍の定量的解析は臨床意思決定に不可欠である。
手動セグメンテーションは退屈で時間がかかり、主観的だが、このタスクは自動セグメンテーションメソッドに対して非常に困難である。
強力な学習能力のおかげで、主に完全な畳み込みネットワークである畳み込みニューラルネットワーク(CNN)は、有望な脳腫瘍セグメンテーションを示している。
本稿では,脳腫瘍の3d重み付き畳み込み層を積み重ねてマルチスケール情報を取り込むhyperdense inception 3d unet (hi-net)を提案することで,脳腫瘍の分節性能をさらに向上させる。
因子化畳み込み層間の高密度接続を用いて、特徴の再利用性を利用して、よりコントラクショナルな情報を抽出する。
我々はダイス損失関数を用いてクラス不均衡に対処する。
提案アーキテクチャをbrats(multi-modal brain tumor segmentation challenge) 2020年テストデータセットで検証した。
提案手法により得られたBRATS 2020テストセットの予備結果から, ET, WT, TCのダイススコアは0.79457, 0.87494, 0.83712であった。
関連論文リスト
- Multimodal 3D Brain Tumor Segmentation with Adversarial Training and Conditional Random Field [44.027635932094064]
正確なセグメンテーションのためのマルチモーダル3次元ボリューム生成適応ネットワーク(3D-vGAN)を提案する。
このモデルは、Pseudo-3DをV-netの改良に利用し、生成後の条件付きランダムフィールドを追加し、元のイメージを補助的なガイダンスとして利用する。
BraTS-2018データセットによる結果は、3D-vGANがU-net、Gan、FCN、および3D V-netなどの古典的セグメンテーションモデルより優れており、99.8%以上に達したことを示している。
論文 参考訳(メタデータ) (2024-11-21T18:52:02Z) - MBDRes-U-Net: Multi-Scale Lightweight Brain Tumor Segmentation Network [0.0]
本研究では,マルチブランチ残差ブロックを統合した3次元U-Netフレームワークを用いたMBDRes-U-Netモデルを提案する。
モデルの計算負担は分岐戦略によって低減され、マルチモーダル画像のリッチな局所的特徴を効果的に活用する。
論文 参考訳(メタデータ) (2024-11-04T09:03:43Z) - Self-calibrated convolution towards glioma segmentation [45.74830585715129]
我々は,nnU-Netネットワークの異なる部分における自己校正畳み込みを評価し,スキップ接続における自己校正加群が,拡張腫瘍と腫瘍コアセグメンテーションの精度を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2024-02-07T19:51:13Z) - Automated Ensemble-Based Segmentation of Adult Brain Tumors: A Novel
Approach Using the BraTS AFRICA Challenge Data [0.0]
3つのコアアーキテクチャに基づく11種類のユニークなバリエーションからなるアンサンブル手法を提案する。
その結果,異なるアーキテクチャを組み合わせるアンサンブルアプローチが単一モデルより優れていることがわかった。
これらの結果は、脳腫瘍を正確に分類する上での、調整された深層学習技術の可能性を裏付けるものである。
論文 参考訳(メタデータ) (2023-08-14T15:34:22Z) - Prediction of brain tumor recurrence location based on multi-modal
fusion and nonlinear correlation learning [55.789874096142285]
深層学習に基づく脳腫瘍再発位置予測ネットワークを提案する。
まず、パブリックデータセットBraTS 2021上で、マルチモーダル脳腫瘍セグメンテーションネットワークをトレーニングする。
次に、事前訓練されたエンコーダを、リッチなセマンティックな特徴を抽出するために、プライベートデータセットに転送する。
2つのデコーダは、現在の脳腫瘍を共同に分断し、将来の腫瘍再発位置を予測するために構築されている。
論文 参考訳(メタデータ) (2023-04-11T02:45:38Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z) - Triplet Contrastive Learning for Brain Tumor Classification [99.07846518148494]
本稿では,脳腫瘍の深層埋め込みを直接学習する手法を提案する。
本手法は,27種類の腫瘍群からなる広範囲な脳腫瘍データセットを用いて評価し,そのうち13種は稀である。
論文 参考訳(メタデータ) (2021-08-08T11:26:34Z) - QuickTumorNet: Fast Automatic Multi-Class Segmentation of Brain Tumors [0.0]
3D MRIボリュームからの脳腫瘍の手動分割は、時間のかかる作業です。
私たちのモデルであるQuickTumorNetは、高速で信頼性があり、正確な脳腫瘍セグメンテーションを示しました。
論文 参考訳(メタデータ) (2020-12-22T23:16:43Z) - Brain tumor segmentation with self-ensembled, deeply-supervised 3D U-net
neural networks: a BraTS 2020 challenge solution [56.17099252139182]
U-netのようなニューラルネットワークを用いた脳腫瘍セグメント化作業の自動化と標準化を行う。
2つの独立したモデルのアンサンブルが訓練され、それぞれが脳腫瘍のセグメンテーションマップを作成した。
我々の解は、最終試験データセットにおいて、Diceの0.79、0.89、0.84、およびHausdorffの95%の20.4、6.7、19.5mmを達成した。
論文 参考訳(メタデータ) (2020-10-30T14:36:10Z) - Context Aware 3D UNet for Brain Tumor Segmentation [24.27997192961372]
UNetは、医用イメージングタスクのための3D CNNアーキテクチャのパフォーマンスの主要な情報源である。
脳腫瘍セグメント化のためのUNetアーキテクチャの修正を提案する。
論文 参考訳(メタデータ) (2020-10-25T10:32:25Z) - Robust Semantic Segmentation of Brain Tumor Regions from 3D MRIs [2.4736005621421686]
マルチモーダル脳腫瘍セグメンテーションチャレンジ(BraTS)は、3次元MRI脳腫瘍セグメンテーションの自動化方法を改善するために研究者を結集させる。
この手法をBraTS 2019の課題として評価した。
論文 参考訳(メタデータ) (2020-01-06T07:47:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。