論文の概要: Deep Ensemble approach for Enhancing Brain Tumor Segmentation in Resource-Limited Settings
- arxiv url: http://arxiv.org/abs/2502.02179v1
- Date: Tue, 04 Feb 2025 09:53:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 14:56:37.709985
- Title: Deep Ensemble approach for Enhancing Brain Tumor Segmentation in Resource-Limited Settings
- Title(参考訳): 資源制限設定における脳腫瘍切開促進のための深層アンサンブルアプローチ
- Authors: Jeremiah Fadugba, Isabel Lieberman, Olabode Ajayi, Mansour Osman, Solomon Oluwole Akinola, Tinashe Mustvangwa, Dong Zhang, Udunna C Anazondo, Raymond Confidence,
- Abstract要約: 本研究では, グリオーマのセマンティックセグメンテーションのために, UNet3D, V-Net, MSA-VNetモデルを統合した深層学習アンサンブルを開発する。
DICEスコアは腫瘍コア0.8358、全腫瘍0.8521、腫瘍エンハンス0.8167である。
- 参考スコア(独自算出の注目度): 4.022491041135248
- License:
- Abstract: Segmentation of brain tumors is a critical step in treatment planning, yet manual segmentation is both time-consuming and subjective, relying heavily on the expertise of radiologists. In Sub-Saharan Africa, this challenge is magnified by overburdened medical systems and limited access to advanced imaging modalities and expert radiologists. Automating brain tumor segmentation using deep learning offers a promising solution. Convolutional Neural Networks (CNNs), especially the U-Net architecture, have shown significant potential. However, a major challenge remains: achieving generalizability across different datasets. This study addresses this gap by developing a deep learning ensemble that integrates UNet3D, V-Net, and MSA-VNet models for the semantic segmentation of gliomas. By initially training on the BraTS-GLI dataset and fine-tuning with the BraTS-SSA dataset, we enhance model performance. Our ensemble approach significantly outperforms individual models, achieving DICE scores of 0.8358 for Tumor Core, 0.8521 for Whole Tumor, and 0.8167 for Enhancing Tumor. These results underscore the potential of ensemble methods in improving the accuracy and reliability of automated brain tumor segmentation, particularly in resource-limited settings.
- Abstract(参考訳): 脳腫瘍のセグメンテーションは治療計画の重要なステップであるが、手動セグメンテーションは時間と主観の両方を消費し、放射線技師の専門知識に大きく依存している。
サハラ以南のアフリカでは、この課題は、オーバーバーデンド医療システムと高度な画像モダリティや専門の放射線技師への限られたアクセスによって拡大している。
ディープラーニングを用いた脳腫瘍のセグメンテーションの自動化は、有望な解決策である。
畳み込みニューラルネットワーク(CNN)、特にU-Netアーキテクチャは大きな可能性を示している。
しかし、大きな課題は、異なるデータセット間での一般化性の実現である。
本研究では, グリオーマのセマンティックセグメンテーションのために, UNet3D, V-Net, MSA-VNetモデルを統合した深層学習アンサンブルを開発することにより, このギャップを解消する。
BraTS-GLIデータセットのトレーニングとBraTS-SSAデータセットの微調整により,モデル性能が向上する。
DICEスコアは腫瘍コア0.8358、全腫瘍0.8521、腫瘍エンハンス0.8167である。
これらの結果は、特に資源限定の設定において、自動脳腫瘍セグメンテーションの精度と信頼性を向上させるためのアンサンブル法の可能性を強調している。
関連論文リスト
- Hybrid Multihead Attentive Unet-3D for Brain Tumor Segmentation [0.0]
脳腫瘍のセグメンテーションは、医療画像解析において重要な課題であり、脳腫瘍患者の診断と治療計画を支援する。
様々な深層学習技術がこの分野で大きな進歩を遂げてきたが、脳腫瘍形態の複雑で変動的な性質のため、精度の面ではまだ限界に直面している。
本稿では,脳腫瘍の正確なセグメンテーションにおける課題を解決するために,新しいハイブリッドマルチヘッド注意型U-Netアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-05-22T02:46:26Z) - Attention-Enhanced Hybrid Feature Aggregation Network for 3D Brain Tumor Segmentation [0.9897828700959131]
グリオ芽腫は、早期診断と迅速な介入を必要とする非常に攻撃的で悪性な脳腫瘍である。
この課題に対処するため、人工知能(AI)が主導する医療のアプローチは、脳腫瘍の効率的な診断と評価に関心を寄せている。
提案手法では,マルチスケール,注意誘導型,ハイブリッドU-Net形状モデルであるGLIMSを用いて,脳腫瘍の3次元セグメント化を行う。
論文 参考訳(メタデータ) (2024-03-15T00:52:17Z) - Fully Automated Tumor Segmentation for Brain MRI data using Multiplanner
UNet [0.29998889086656577]
本研究は,3つの挑戦的データセットにまたがる腫瘍サブリージョンの分割におけるマルチプランナーU-Net(MPUnet)アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2024-01-12T10:46:19Z) - Automated Ensemble-Based Segmentation of Adult Brain Tumors: A Novel
Approach Using the BraTS AFRICA Challenge Data [0.0]
3つのコアアーキテクチャに基づく11種類のユニークなバリエーションからなるアンサンブル手法を提案する。
その結果,異なるアーキテクチャを組み合わせるアンサンブルアプローチが単一モデルより優れていることがわかった。
これらの結果は、脳腫瘍を正確に分類する上での、調整された深層学習技術の可能性を裏付けるものである。
論文 参考訳(メタデータ) (2023-08-14T15:34:22Z) - Federated Learning Enables Big Data for Rare Cancer Boundary Detection [98.5549882883963]
6大陸にわたる71の医療機関のデータを含む,これまでで最大のフェデレーテッドML研究の結果を報告する。
グリオ芽腫の稀な疾患に対する腫瘍境界自動検出装置を作製した。
当科では, 外科的に標的とした腫瘍の悪性度を高めるために, 33%の改善率を示し, 腫瘍全体に対する23%の改善率を示した。
論文 参考訳(メタデータ) (2022-04-22T17:27:00Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z) - Redundancy Reduction in Semantic Segmentation of 3D Brain Tumor MRIs [2.946960157989204]
この研究は、摂動下での冗長性を最小化するネットワークトレーニングプロセスの修正である。
腫瘍コア, 腫瘍コア, 全腫瘍に対して, 0.8600, 0.8868, 0.9265平均ダイスを得た。
私たちのチーム(NVAUTO)の応募は、ETとTCのスコアで上位10チーム、WTのスコアで上位10チームだった。
論文 参考訳(メタデータ) (2021-11-01T07:39:06Z) - Medulloblastoma Tumor Classification using Deep Transfer Learning with
Multi-Scale EfficientNets [63.62764375279861]
本稿では,エンド・ツー・エンドのMB腫瘍分類を提案し,様々な入力サイズとネットワーク次元の一致した移動学習を提案する。
161ケースのデータセットを用いて、より大規模な入力解像度を持つ事前学習されたEfficientNetが、大幅な性能改善をもたらすことを実証した。
論文 参考訳(メタデータ) (2021-09-10T13:07:11Z) - H2NF-Net for Brain Tumor Segmentation using Multimodal MR Imaging: 2nd
Place Solution to BraTS Challenge 2020 Segmentation Task [96.49879910148854]
当社のH2NF-Netは、単一およびカスケードのHNF-Netを使用して、異なる脳腫瘍サブリージョンを分割します。
我々は、マルチモーダル脳腫瘍チャレンジ(BraTS)2020データセットでモデルをトレーニングし、評価した。
提案手法は,80名近い参加者のうち,brats 2020チャレンジセグメンテーションタスクで2位となった。
論文 参考訳(メタデータ) (2020-12-30T20:44:55Z) - Brain tumor segmentation with self-ensembled, deeply-supervised 3D U-net
neural networks: a BraTS 2020 challenge solution [56.17099252139182]
U-netのようなニューラルネットワークを用いた脳腫瘍セグメント化作業の自動化と標準化を行う。
2つの独立したモデルのアンサンブルが訓練され、それぞれが脳腫瘍のセグメンテーションマップを作成した。
我々の解は、最終試験データセットにおいて、Diceの0.79、0.89、0.84、およびHausdorffの95%の20.4、6.7、19.5mmを達成した。
論文 参考訳(メタデータ) (2020-10-30T14:36:10Z) - A Global Benchmark of Algorithms for Segmenting Late Gadolinium-Enhanced
Cardiac Magnetic Resonance Imaging [90.29017019187282]
現在世界最大の心臓LGE-MRIデータセットである154個の3D LGE-MRIを用いた「2018 left Atrium Challenge」。
技術および生物学的指標を用いた提案アルゴリズムの解析を行った。
その結果, 最上部法は93.2%, 平均表面は0.7mmであった。
論文 参考訳(メタデータ) (2020-04-26T08:49:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。