論文の概要: An Empirical Comparison of Explainable Artificial Intelligence Methods
for Clinical Data: A Case Study on Traumatic Brain Injury
- arxiv url: http://arxiv.org/abs/2208.06717v1
- Date: Sat, 13 Aug 2022 19:44:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-16 13:08:28.798188
- Title: An Empirical Comparison of Explainable Artificial Intelligence Methods
for Clinical Data: A Case Study on Traumatic Brain Injury
- Title(参考訳): 臨床データに対する説明可能な人工知能法の実証的比較--外傷性脳損傷を事例として
- Authors: Amin Nayebi, Sindhu Tipirneni, Brandon Foreman, Chandan K. Reddy,
Vignesh Subbian
- Abstract要約: 外傷性脳損傷の短期および長期予後予測モデルを構築した。
6つの異なる解釈手法が局所的および大域的レベルの予測モデルの両方を記述するために用いられた。
実装された手法は, 可視性, 忠実性, 安定性など, XAI の特徴の観点から比較した。
- 参考スコア(独自算出の注目度): 8.913544654492696
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: A longstanding challenge surrounding deep learning algorithms is unpacking
and understanding how they make their decisions. Explainable Artificial
Intelligence (XAI) offers methods to provide explanations of internal functions
of algorithms and reasons behind their decisions in ways that are interpretable
and understandable to human users. . Numerous XAI approaches have been
developed thus far, and a comparative analysis of these strategies seems
necessary to discern their relevance to clinical prediction models. To this
end, we first implemented two prediction models for short- and long-term
outcomes of traumatic brain injury (TBI) utilizing structured tabular as well
as time-series physiologic data, respectively. Six different interpretation
techniques were used to describe both prediction models at the local and global
levels. We then performed a critical analysis of merits and drawbacks of each
strategy, highlighting the implications for researchers who are interested in
applying these methodologies. The implemented methods were compared to one
another in terms of several XAI characteristics such as understandability,
fidelity, and stability. Our findings show that SHAP is the most stable with
the highest fidelity but falls short of understandability. Anchors, on the
other hand, is the most understandable approach, but it is only applicable to
tabular data and not time series data.
- Abstract(参考訳): ディープラーニングアルゴリズムを取り巻く長年にわたる課題は、どのように意思決定するかを解き放ち、理解することだ。
説明可能な人工知能(XAI)は、アルゴリズムの内部機能の説明と、その決定の背後にある理由を、人間のユーザにとって解釈可能で理解可能な方法で提供する方法を提供する。
.
これまでに多くのXAIアプローチが開発されており、臨床予測モデルとの関係を明らかにするためにはこれらの戦略の比較分析が必要であると考えられる。
そこで我々はまず,構造化表と時系列生理学的データを用いた外傷性脳損傷(TBI)の短期・長期予後予測モデルを構築した。
6つの異なる解釈手法を用いて、局所的およびグローバルレベルでの予測モデルの両方を記述する。
次に,各戦略のメリットと欠点を批判的に分析し,これらの手法の適用に関心を持つ研究者にとっての意義を強調した。
実装された手法は, 可視性, 忠実性, 安定性など, XAI の特徴の観点から比較した。
以上の結果から,SHAPが最も安定しており,高い忠実度を有するが,理解性に乏しいことが示唆された。
一方、アンカーは最も理解しやすいアプローチであるが、表形式のデータにのみ適用でき、時系列データには適用できない。
関連論文リスト
- Gradient based Feature Attribution in Explainable AI: A Technical Review [13.848675695545909]
ブラックボックスAIモデルの急増は、内部メカニズムを説明し、信頼性を正当化する必要性を喚起している。
勾配に基づく説明は、ニューラルネットワークモデルに直接適用することができる。
アルゴリズムの性能を測定するために,人的評価と定量的評価の両方を導入する。
論文 参考訳(メタデータ) (2024-03-15T15:49:31Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Topological Interpretability for Deep-Learning [0.30806551485143496]
ディープラーニング(DL)モデルは、予測の確実性を定量化できない。
本研究は,臨床および非臨床のテキストに基づいて訓練された2つのDL分類モデルにおいて,特徴を推測する手法を提案する。
論文 参考訳(メタデータ) (2023-05-15T13:38:13Z) - A Brief Review of Explainable Artificial Intelligence in Healthcare [7.844015105790313]
XAIは、AIアプリケーションを構築するための技術と方法を指す。
モデル説明可能性と解釈可能性は、医療実践におけるAIモデルのデプロイを成功させる上で不可欠である。
論文 参考訳(メタデータ) (2023-04-04T05:41:57Z) - A method for comparing multiple imputation techniques: a case study on
the U.S. National COVID Cohort Collaborative [1.259457977936316]
統計的解析の文脈において、欠落データを扱うための戦略を数値的に評価する。
このアプローチは、最も有効でパフォーマンスの低いデータハンドリング戦略を効果的に強調することができる。
論文 参考訳(メタデータ) (2022-06-13T19:49:54Z) - MERIt: Meta-Path Guided Contrastive Learning for Logical Reasoning [63.50909998372667]
テキストの論理的ReasonIngに対して,Metaパスを用いたコントラスト学習手法であるMERItを提案する。
2つの新しい戦略が我々の手法の必須要素である。
論文 参考訳(メタデータ) (2022-03-01T11:13:00Z) - A survey of Bayesian Network structure learning [8.411014222942168]
本稿では,データからBN構造を学習するための61のアルゴリズムについてレビューする。
各アルゴリズムの基本的アプローチは一貫性のある言葉で説明され、それらの類似点と相違点が強調された。
実世界のデータセットでのデータノイズに対処し、学習プロセスに専門家の知識を取り入れるためのアプローチについても紹介する。
論文 参考訳(メタデータ) (2021-09-23T14:54:00Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Nonparametric Estimation of Heterogeneous Treatment Effects: From Theory
to Learning Algorithms [91.3755431537592]
プラグイン推定と擬似出力回帰に依存する4つの幅広いメタ学習戦略を解析する。
この理論的推論を用いて、アルゴリズム設計の原則を導出し、分析を実践に翻訳する方法について強調する。
論文 参考訳(メタデータ) (2021-01-26T17:11:40Z) - Double Robust Representation Learning for Counterfactual Prediction [68.78210173955001]
そこで本稿では, 対実予測のための2次ロバスト表現を学習するための, スケーラブルな新しい手法を提案する。
我々は、個々の治療効果と平均的な治療効果の両方に対して、堅牢で効率的な対実的予測を行う。
このアルゴリズムは,実世界の最先端技術と合成データとの競合性能を示す。
論文 参考訳(メタデータ) (2020-10-15T16:39:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。