論文の概要: Beyond the Black Box: Do More Complex Models Provide Superior XAI Explanations?
- arxiv url: http://arxiv.org/abs/2405.08658v1
- Date: Tue, 14 May 2024 14:35:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-15 13:49:19.543113
- Title: Beyond the Black Box: Do More Complex Models Provide Superior XAI Explanations?
- Title(参考訳): ブラックボックスを超えて - より複雑なモデルは、より優れたXAI説明を提供するか?
- Authors: Mateusz Cedro, Marcin Chlebus,
- Abstract要約: 人工知能モデルの複雑さの増大は、解釈可能性に課題をもたらす。
本研究では,ディープラーニングモデルの複雑さと説明可能なAI(XAI)の有効性について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasing complexity of Artificial Intelligence models poses challenges to interpretability, particularly in the healthcare sector. This study investigates the impact of deep learning model complexity and Explainable AI (XAI) efficacy, utilizing four ResNet architectures (ResNet-18, 34, 50, 101). Through methodical experimentation on 4,369 lung X-ray images of COVID-19-infected and healthy patients, the research evaluates models' classification performance and the relevance of corresponding XAI explanations with respect to the ground-truth disease masks. Results indicate that the increase in model complexity is associated with a decrease in classification accuracy and AUC-ROC scores (ResNet-18: 98.4%, 0.997; ResNet-101: 95.9%, 0.988). Notably, in eleven out of twelve statistical tests performed, no statistically significant differences occurred between XAI quantitative metrics - Relevance Rank Accuracy and the proposed Positive Attribution Ratio - across trained models. These results suggest that increased model complexity does not consistently lead to higher performance or relevance of explanations for models' decision-making processes.
- Abstract(参考訳): 人工知能モデルの複雑さの増大は、特に医療分野において、解釈可能性に課題をもたらす。
本研究では,4つのResNetアーキテクチャ(ResNet-18,34,50,101)を用いて,ディープラーニングモデルの複雑性と説明可能なAI(XAI)の有効性について検討した。
新型コロナウイルスに感染した健康な患者の肺X線画像4,369枚に対する方法実験を通じて、モデルによる分類性能と、それに対応するXAI説明との関連性を評価した。
その結果、モデル複雑性の増加は分類精度の低下とAUC-ROCスコア(ResNet-18:98.4%、0.997; ResNet-101:95.9%、0.988)と関連していることが示された。
特に、12の統計的テストのうち11の段階では、XAIの定量的測定値 – 関連ランク精度と提案された正の属性比 – の間に、トレーニングされたモデル間で統計的に有意な差はなかった。
これらの結果から,モデル複雑性の増大は,モデルの意思決定プロセスにおける高い性能や説明の関連性をもたらすものではないことが示唆された。
関連論文リスト
- Modeling Long Sequences in Bladder Cancer Recurrence: A Comparative Evaluation of LSTM,Transformer,and Mamba [0.0]
本研究では,Cox比例ハザードモデルを用いて,時系列データを扱う深層学習モデルの利点を統合する。
LSTM-Coxモデルは、TransformerやMambaといった新しいモデルにまたがる、リカレントなデータ解析と特徴抽出のための堅牢で効率的な方法である。
論文 参考訳(メタデータ) (2024-05-28T18:38:15Z) - The effect of data augmentation and 3D-CNN depth on Alzheimer's Disease
detection [51.697248252191265]
この研究は、データハンドリング、実験設計、モデル評価に関するベストプラクティスを要約し、厳密に観察する。
我々は、アルツハイマー病(AD)の検出に焦点を当て、医療における課題のパラダイム的な例として機能する。
このフレームワークでは,3つの異なるデータ拡張戦略と5つの異なる3D CNNアーキテクチャを考慮し,予測15モデルを訓練する。
論文 参考訳(メタデータ) (2023-09-13T10:40:41Z) - A Comprehensive Evaluation and Analysis Study for Chinese Spelling Check [53.152011258252315]
音声とグラフィックの情報を合理的に使用することは,中国語のスペルチェックに有効であることを示す。
モデルはテストセットのエラー分布に敏感であり、モデルの欠点を反映している。
一般的なベンチマークであるSIGHANは、モデルの性能を確実に評価できない。
論文 参考訳(メタデータ) (2023-07-25T17:02:38Z) - Incorporating Prior Knowledge in Deep Learning Models via Pathway
Activity Autoencoders [5.950889585409067]
本稿では,癌におけるRNA-seqデータのための,事前知識に基づく新しいディープオートエンコーディングフレームワークPAAEを提案する。
機能セットが小さいにもかかわらず,PAAEモデルとPAAEモデルでは,一般的な手法と比較して,アウト・オブ・セットの再現性が向上していることを示す。
論文 参考訳(メタデータ) (2023-06-09T11:12:55Z) - Less is More: Mitigate Spurious Correlations for Open-Domain Dialogue
Response Generation Models by Causal Discovery [52.95935278819512]
本研究で得られたCGDIALOGコーパスに基づくオープンドメイン応答生成モデルのスプリアス相関に関する最初の研究を行った。
因果探索アルゴリズムに着想を得て,反応生成モデルの学習と推論のための新しいモデル非依存手法を提案する。
論文 参考訳(メタデータ) (2023-03-02T06:33:48Z) - Using Explainable AI to Cross-Validate Socio-economic Disparities Among
Covid-19 Patient Mortality [7.897897974226182]
本稿では、XAI法を用いて、新型コロナウイルス患者の死亡率における社会経済的格差について検討する。
XAIモデルは、メディケアのファイナンシャルクラス、高齢者、性別が死亡予測に高い影響を与えることを明らかにした。
論文 参考訳(メタデータ) (2023-02-16T22:09:05Z) - Causal Inference via Nonlinear Variable Decorrelation for Healthcare
Applications [60.26261850082012]
線形および非線形共振の両方を扱う可変デコリレーション正規化器を用いた新しい手法を提案する。
我々は、モデル解釈可能性を高めるために、元の特徴に基づくアソシエーションルールマイニングを用いた新しい表現として、アソシエーションルールを採用する。
論文 参考訳(メタデータ) (2022-09-29T17:44:14Z) - COVID-19 Electrocardiograms Classification using CNN Models [1.1172382217477126]
深層学習アルゴリズムの統合による心電図(ECG)データの利用により、COVID-19を自動的に診断するための新しいアプローチが提案されている。
CNNモデルは、VGG16、VGG19、InceptionResnetv2、InceptionV3、Resnet50、Densenet201を含む提案されたフレームワークで利用されている。
この結果,VGG16モデルと比較すると,他のモデルに比べて比較的精度が低いことがわかった。
論文 参考訳(メタデータ) (2021-12-15T08:06:45Z) - A multi-stage machine learning model on diagnosis of esophageal
manometry [50.591267188664666]
このフレームワークには、飲み込みレベルにおけるディープラーニングモデルと、学習レベルにおける機能ベースの機械学習モデルが含まれている。
これは、生のマルチスワローデータからHRM研究のCC診断を自動的に予測する最初の人工知能モデルである。
論文 参考訳(メタデータ) (2021-06-25T20:09:23Z) - Exploration of Interpretability Techniques for Deep COVID-19
Classification using Chest X-ray Images [10.01138352319106]
5種類のディープラーニングモデル(ResNet18、ResNet34、InceptionV3、InceptionResNetV2、DenseNet161)とそれらのEnsembleは、Chest X-Ray画像を用いて、新型コロナウイルス、肺炎、健康な被験者を分類するために使用されている。
新型コロナウイルスの分類における平均的なMicro-F1スコアは0.66から0.875の範囲で、ネットワークモデルのアンサンブルは0.89である。
論文 参考訳(メタデータ) (2020-06-03T22:55:53Z) - A Systematic Approach to Featurization for Cancer Drug Sensitivity
Predictions with Deep Learning [49.86828302591469]
35,000以上のニューラルネットワークモデルをトレーニングし、一般的な成果化技術を駆使しています。
RNA-seqは128以上のサブセットであっても非常に冗長で情報的であることがわかった。
論文 参考訳(メタデータ) (2020-04-30T20:42:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。