論文の概要: Demystifying Deep Learning-based Brain Tumor Segmentation with 3D UNets and Explainable AI (XAI): A Comparative Analysis
- arxiv url: http://arxiv.org/abs/2510.07785v1
- Date: Thu, 09 Oct 2025 05:03:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:14.870918
- Title: Demystifying Deep Learning-based Brain Tumor Segmentation with 3D UNets and Explainable AI (XAI): A Comparative Analysis
- Title(参考訳): 3次元ユニセットと説明可能なAI(XAI)を用いたDemystifying Deep Learning-based Brain tumor Segmentation : 比較分析
- Authors: Ming Jie Ong, Sze Yinn Ung, Sim Kuan Goh, Jimmy Y. Zhong,
- Abstract要約: この研究は、脳腫瘍のセグメンテーションにUNetモデルを適用することに焦点を当てた。
3つのディープラーニングモデルを評価し,最も優れたモデルを特定した。
ResUNetは最高のパフォーマンスモデルであることが判明した。
- 参考スコア(独自算出の注目度): 1.5958130875154202
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The current study investigated the use of Explainable Artificial Intelligence (XAI) to improve the accuracy of brain tumor segmentation in MRI images, with the goal of assisting physicians in clinical decision-making. The study focused on applying UNet models for brain tumor segmentation and using the XAI techniques of Gradient-weighted Class Activation Mapping (Grad-CAM) and attention-based visualization to enhance the understanding of these models. Three deep learning models - UNet, Residual UNet (ResUNet), and Attention UNet (AttUNet) - were evaluated to identify the best-performing model. XAI was employed with the aims of clarifying model decisions and increasing physicians' trust in these models. We compared the performance of two UNet variants (ResUNet and AttUNet) with the conventional UNet in segmenting brain tumors from the BraTS2020 public dataset and analyzed model predictions with Grad-CAM and attention-based visualization. Using the latest computer hardware, we trained and validated each model using the Adam optimizer and assessed their performance with respect to: (i) training, validation, and inference times, (ii) segmentation similarity coefficients and loss functions, and (iii) classification performance. Notably, during the final testing phase, ResUNet outperformed the other models with respect to Dice and Jaccard similarity scores, as well as accuracy, recall, and F1 scores. Grad-CAM provided visuospatial insights into the tumor subregions each UNet model focused on while attention-based visualization provided valuable insights into the working mechanisms of AttUNet's attention modules. These results demonstrated ResUNet as the best-performing model and we conclude by recommending its use for automated brain tumor segmentation in future clinical assessments. Our source code and checkpoint are available at https://github.com/ethanong98/MultiModel-XAI-Brats2020
- Abstract(参考訳): この研究は、MRI画像における脳腫瘍のセグメント化の精度を向上させるための説明可能な人工知能(XAI)の使用について研究し、臨床診断における医師の支援を目的としている。
この研究は、脳腫瘍のセグメンテーションにUNetモデルを適用し、グラディエント重み付きクラス活性化マッピング(Grad-CAM)のXAI技術を用いて、これらのモデルの理解を深めるための注意に基づく可視化に焦点をあてた。
UNet、Residual UNet(ResUNet)、AttUNet(AttUNet)の3つのディープラーニングモデルを評価し、最高のパフォーマンスモデルを特定した。
XAIは、モデル決定を明確にし、これらのモデルに対する医師の信頼を高める目的で採用された。
我々は2種類のUNet変異体(ResUNetとAttUNet)とBraTS2020公開データセットからの脳腫瘍の分節化における従来のUNetの性能を比較し、Grad-CAMとアテンションベース可視化を用いてモデル予測を解析した。
最新のコンピュータハードウェアを使用して、Adamオプティマイザを使用して各モデルをトレーニングし、検証し、パフォーマンスを評価しました。
一 トレーニング、検証及び推測時間
二 セグメンテーション類似度係数及び損失関数
(三)分類性能。
テストの最終段階では、ResUNetはDiceとJaccardの類似点、精度、リコール、F1スコアに関して他のモデルよりも優れていた。
Grad-CAMは、各UNetモデルに焦点をあてた腫瘍サブリージョンに関する視覚的洞察を提供し、注意に基づく可視化は、AttUNetの注意モジュールの動作メカニズムに関する貴重な洞察を提供した。
これらの結果から, ResUNetが最高の成績を示すモデルであることが示され, 今後の臨床評価において, 自動脳腫瘍セグメンテーションの活用が推奨される。
ソースコードとチェックポイントはhttps://github.com/ethanong98/MultiModel-XAI-Brats2020で公開されている。
関連論文リスト
- SurgeryLSTM: A Time-Aware Neural Model for Accurate and Explainable Length of Stay Prediction After Spine Surgery [44.119171920037196]
選択的脊椎手術における滞在時間(LOS)予測のための機械学習モデルの開発と評価を行った。
我々は,従来のMLモデルと,マスク付き双方向長短期記憶(BiLSTM)であるオペレーショナルLSTMを比較した。
決定係数(R2)を用いて性能を評価し,説明可能なAIを用いて鍵予測器を同定した。
論文 参考訳(メタデータ) (2025-07-15T01:18:28Z) - Can Foundation Models Really Segment Tumors? A Benchmarking Odyssey in Lung CT Imaging [25.093744722130594]
腫瘍の形態、大きさ、位置の複雑さは、自動セグメンテーションに重大な課題をもたらす。
我々は、U-NetやDeepLabV3のような従来のアーキテクチャ、nnUNetのような自己設定モデル、MedSAMやMedSAM2のような基礎モデルと比較する。
その結果、従来のモデルでは腫瘍の脱線に苦しむ一方で、基礎モデル、特にMedSAM2は精度と計算効率の両方で優れていることがわかった。
論文 参考訳(メタデータ) (2025-05-02T13:04:01Z) - Evaluating Vision Language Models (VLMs) for Radiology: A Comprehensive Analysis [4.803310914375717]
本研究では,3つの視覚言語基盤モデル(RAD-DINO,CheXagent,BiomedCLIP)を,放射線学タスクの微細な画像特徴を捉える能力について評価した。
胸部X線写真上, 気胸, 心肥大に対する分類, セグメンテーション, 回帰作業で評価した。
論文 参考訳(メタデータ) (2025-04-22T17:20:34Z) - Benchmarking Embedding Aggregation Methods in Computational Pathology: A Clinical Data Perspective [32.93871326428446]
人工知能(AI)の最近の進歩は、医療画像と計算病理に革命をもたらしている。
デジタル全スライド画像(WSI)の解析における一定の課題は、何万ものタイルレベルの画像埋め込みをスライドレベルの表現に集約する問題である。
本研究は,9つの臨床的課題を対象とした10種類のスライドレベルのアグリゲーション手法のベンチマーク分析を行った。
論文 参考訳(メタデータ) (2024-07-10T17:00:57Z) - Deep Learning-Based Brain Image Segmentation for Automated Tumour Detection [0.0]
目的は、最先端の畳み込みニューラルネットワーク(CNN)を、セグメント化のための脳MRIスキャンの大規模なデータセットに活用することである。
提案手法は,性能向上と一般化性向上のために前処理技術を適用した。
論文 参考訳(メタデータ) (2024-04-06T15:09:49Z) - Architecture Analysis and Benchmarking of 3D U-shaped Deep Learning Models for Thoracic Anatomical Segmentation [0.8897689150430447]
3次元U型モデルの変種に対する最初の系統的ベンチマーク研究を行う。
本研究では,異なる注意機構,解像度ステージ数,ネットワーク構成がセグメンテーション精度および計算複雑性に与える影響について検討した。
論文 参考訳(メタデータ) (2024-02-05T17:43:02Z) - Computational Pathology at Health System Scale -- Self-Supervised
Foundation Models from Three Billion Images [30.618749295623363]
本研究の目的は,学術基礎モデルの最大化と,事前学習による自己指導型学習アルゴリズムのベンチマークである。
これまでで最大の病理データセットを収集し、423万枚以上の顕微鏡スライドから30億枚以上の画像を集めました。
以上の結果から, 自然画像の事前学習と比較して, 診断データに対する事前学習は下流での学習に有益であることが示唆された。
論文 参考訳(メタデータ) (2023-10-10T21:40:19Z) - Automated Ensemble-Based Segmentation of Adult Brain Tumors: A Novel
Approach Using the BraTS AFRICA Challenge Data [0.0]
3つのコアアーキテクチャに基づく11種類のユニークなバリエーションからなるアンサンブル手法を提案する。
その結果,異なるアーキテクチャを組み合わせるアンサンブルアプローチが単一モデルより優れていることがわかった。
これらの結果は、脳腫瘍を正確に分類する上での、調整された深層学習技術の可能性を裏付けるものである。
論文 参考訳(メタデータ) (2023-08-14T15:34:22Z) - CLIP-Driven Universal Model for Organ Segmentation and Tumor Detection [36.08551407926805]
本稿では,Contrastive Language-Image Pre-trainingから学習したテキストをセグメンテーションモデルに組み込んだCLIP駆動ユニバーサルモデルを提案する。
提案モデルは14のデータセットから作成され、合計3,410個のCTスキャンを使用してトレーニングを行い、さらに3つの追加データセットから6,162個の外部CTスキャンで評価する。
論文 参考訳(メタデータ) (2023-01-02T18:07:44Z) - A multi-stage machine learning model on diagnosis of esophageal
manometry [50.591267188664666]
このフレームワークには、飲み込みレベルにおけるディープラーニングモデルと、学習レベルにおける機能ベースの機械学習モデルが含まれている。
これは、生のマルチスワローデータからHRM研究のCC診断を自動的に予測する最初の人工知能モデルである。
論文 参考訳(メタデータ) (2021-06-25T20:09:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。