論文の概要: Explainable AI: A Combined XAI Framework for Explaining Brain Tumour Detection Models
- arxiv url: http://arxiv.org/abs/2602.05240v1
- Date: Thu, 05 Feb 2026 02:58:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:08.733942
- Title: Explainable AI: A Combined XAI Framework for Explaining Brain Tumour Detection Models
- Title(参考訳): 説明可能なAI:脳腫瘍検出モデルを記述するための複合XAIフレームワーク
- Authors: Patrick McGonagle, William Farrelly, Kevin Curran,
- Abstract要約: 本研究では,脳腫瘍検出のための深層学習モデルの解釈可能性を高めるために,複数の説明可能なAI(XAI)技術の統合について検討する。
独自の畳み込みニューラルネットワーク(CNN)を開発し、BraTS 2021データセットでトレーニングし、腫瘍領域と非腫瘍領域の区別において91.24%の精度を達成した。
- 参考スコア(独自算出の注目度): 0.688204255655161
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This study explores the integration of multiple Explainable AI (XAI) techniques to enhance the interpretability of deep learning models for brain tumour detection. A custom Convolutional Neural Network (CNN) was developed and trained on the BraTS 2021 dataset, achieving 91.24% accuracy in distinguishing between tumour and non-tumour regions. This research combines Gradient-weighted Class Activation Mapping (GRAD-CAM), Layer-wise Relevance Propagation (LRP) and SHapley Additive exPlanations (SHAP) to provide comprehensive insights into the model's decision-making process. This multi-technique approach successfully identified both full and partial tumours, offering layered explanations ranging from broad regions of interest to pixel-level details. GRAD-CAM highlighted important spatial regions, LRP provided detailed pixel-level relevance and SHAP quantified feature contributions. The integrated approach effectively explained model predictions, including cases with partial tumour visibility thus showing superior explanatory power compared to individual XAI methods. This research enhances transparency and trust in AI-driven medical imaging analysis by offering a more comprehensive perspective on the model's reasoning. The study demonstrates the potential of integrated XAI techniques in improving the reliability and interpretability of AI systems in healthcare, particularly for critical tasks like brain tumour detection.
- Abstract(参考訳): 本研究では,脳腫瘍検出のための深層学習モデルの解釈可能性を高めるために,複数の説明可能なAI(XAI)技術の統合について検討する。
独自の畳み込みニューラルネットワーク(CNN)を開発し、BraTS 2021データセットでトレーニングし、腫瘍領域と非腫瘍領域の区別において91.24%の精度を達成した。
この研究は、勾配重み付きクラスアクティベーションマッピング(GRAD-CAM)、レイヤワイド関連プロパゲーション(LRP)、SHAP(SHAP)を組み合わせて、モデルの意思決定プロセスに関する包括的な洞察を提供する。
このマルチテクニックアプローチは、興味のある広い領域からピクセルレベルの詳細まで、階層化された説明を提供することで、完全な腫瘍と部分的な腫瘍の両方を識別することに成功した。
GRAD-CAMは重要な空間領域を強調し、LRPは詳細なピクセルレベルの関連とSHAPの定量化機能を提供していた。
統合されたアプローチでは、部分的な腫瘍の可視性を含むモデル予測が効果的に説明され、個々のXAI法と比較して説明力に優れていた。
この研究は、モデル推論に関するより包括的な視点を提供することにより、AI駆動型医療画像分析の透明性と信頼性を高める。
この研究は、医療におけるAIシステムの信頼性と解釈可能性を改善するための統合されたXAI技術の可能性、特に脳腫瘍検出のような重要なタスクについて実証している。
関連論文リスト
- UbiQVision: Quantifying Uncertainty in XAI for Image Recognition [39.47298454012977]
SHAPの説明は、てんかんやアレタリック不確実性の存在下で不安定で信頼性が低い。
本研究はディリクレ後部サンプリングとデンプスター・シェーファー理論を用いて,これらの不安定な説明から生じる不確実性の定量化を行う。
論文 参考訳(メタデータ) (2025-12-23T11:57:34Z) - Ensemble Learning and 3D Pix2Pix for Comprehensive Brain Tumor Analysis in Multimodal MRI [2.104687387907779]
本研究では,ハイブリッドトランスモデルと畳み込みニューラルネットワーク(CNN)を用いたアンサンブル学習の強みを活用した統合的アプローチを提案する。
本手法は,アキシャルアテンションとトランスフォーマーエンコーダを併用して,高機能な空間関係モデリングを行う。
その結果,Dice similarity Coefficient (DSC), Hausdorff Distance (HD95), Structure similarity Index Measure (SSIM), Peak Signal-to-Noise Ratio (PSNR), Mean-Square Error (MSE) などの画期的な評価が得られた。
論文 参考訳(メタデータ) (2024-12-16T15:10:53Z) - Robust Melanoma Thickness Prediction via Deep Transfer Learning enhanced by XAI Techniques [39.97900702763419]
本研究は,メラノーマの深さを測定するために皮膚内視鏡像の解析に焦点をあてる。
顆粒層の上部から腫瘍浸潤の最も深い地点まで測定されたブレスロー深さは、黒色腫のステージングと治療決定の指針となる重要なパラメータである。
ISICやプライベートコレクションを含むさまざまなデータセットが使用され、合計で1162枚の画像が含まれている。
その結果, 従来の手法に比べて, モデルが大幅に改善された。
論文 参考訳(メタデータ) (2024-06-19T11:07:55Z) - Breast Cancer Diagnosis: A Comprehensive Exploration of Explainable Artificial Intelligence (XAI) Techniques [37.9243470221619]
乳がんの診断・診断における説明可能な人工知能(XAI)技術の適用について検討する。
複雑なAIモデルと実用的な医療アプリケーションの間のギャップを埋めることにおけるXAIの可能性を強調することを目的としている。
論文 参考訳(メタデータ) (2024-06-01T18:50:03Z) - Enhancing Breast Cancer Diagnosis in Mammography: Evaluation and Integration of Convolutional Neural Networks and Explainable AI [0.0]
本研究では,畳み込みニューラルネットワーク(CNN)と説明可能な人工知能(XAI)を組み合わせて乳がんの診断を高度化するための統合フレームワークを提案する。
この方法論は、データセットの制限に対処するために、精巧なデータ前処理パイプラインと高度なデータ拡張技術を含んでいる。
本研究の焦点は,モデル予測の解釈におけるXAIの有効性を評価することである。
論文 参考訳(メタデータ) (2024-04-05T05:00:21Z) - Post-Hoc Explainability of BI-RADS Descriptors in a Multi-task Framework
for Breast Cancer Detection and Segmentation [48.08423125835335]
MT-BI-RADSは乳房超音波(BUS)画像における腫瘍検出のための新しい深層学習手法である。
放射線科医が腫瘍の悪性度を予測するための意思決定プロセスを理解するための3つのレベルの説明を提供する。
論文 参考訳(メタデータ) (2023-08-27T22:07:42Z) - Automated ensemble method for pediatric brain tumor segmentation [0.0]
本研究では,ONet と UNet の修正版を用いた新しいアンサンブル手法を提案する。
データ拡張により、さまざまなスキャンプロトコル間の堅牢性と精度が保証される。
以上の結果から,この高度なアンサンブルアプローチは診断精度の向上に期待できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-08-14T15:29:32Z) - Diagnose Like a Radiologist: Hybrid Neuro-Probabilistic Reasoning for
Attribute-Based Medical Image Diagnosis [42.624671531003166]
本稿では,属性に基づく医用画像診断のためのハイブリッド型ニューロ確率推論アルゴリズムを提案する。
我々は,ハイブリッド推論アルゴリズムを2つの困難な画像診断タスクに適用することに成功している。
論文 参考訳(メタデータ) (2022-08-19T12:06:46Z) - Visual Interpretable and Explainable Deep Learning Models for Brain
Tumor MRI and COVID-19 Chest X-ray Images [0.0]
我々は、ディープニューラルネットワークが医療画像をどのように分析するかを照らすための属性手法を評価する。
我々は近年の深層畳み込みニューラルネットワークモデルによる脳腫瘍MRIと新型コロナウイルス胸部X線データセットからの予測を属性とした。
論文 参考訳(メタデータ) (2022-08-01T16:05:14Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。