論文の概要: Evaluation of Popular XAI Applied to Clinical Prediction Models: Can
They be Trusted?
- arxiv url: http://arxiv.org/abs/2306.11985v1
- Date: Wed, 21 Jun 2023 02:29:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 15:07:04.487606
- Title: Evaluation of Popular XAI Applied to Clinical Prediction Models: Can
They be Trusted?
- Title(参考訳): 臨床予測モデルに適用した人気xaiの評価:信頼できるのか?
- Authors: Aida Brankovic, David Cook, Jessica Rahman, Wenjie Huang, Sankalp
Khanna
- Abstract要約: 透明性と説明可能性の欠如は、機械学習(ML)アルゴリズムの臨床的採用を妨げる。
本研究は、医療現場における予測モデルの説明に使用される2つの一般的なXAI手法を評価する。
- 参考スコア(独自算出の注目度): 2.0089256058364358
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The absence of transparency and explainability hinders the clinical adoption
of Machine learning (ML) algorithms. Although various methods of explainable
artificial intelligence (XAI) have been suggested, there is a lack of
literature that delves into their practicality and assesses them based on
criteria that could foster trust in clinical environments. To address this gap
this study evaluates two popular XAI methods used for explaining predictive
models in the healthcare context in terms of whether they (i) generate
domain-appropriate representation, i.e. coherent with respect to the
application task, (ii) impact clinical workflow and (iii) are consistent. To
that end, explanations generated at the cohort and patient levels were
analysed. The paper reports the first benchmarking of the XAI methods applied
to risk prediction models obtained by evaluating the concordance between
generated explanations and the trigger of a future clinical deterioration
episode recorded by the data collection system. We carried out an analysis
using two Electronic Medical Records (EMR) datasets sourced from Australian
major hospitals. The findings underscore the limitations of state-of-the-art
XAI methods in the clinical context and their potential benefits. We discuss
these limitations and contribute to the theoretical development of trustworthy
XAI solutions where clinical decision support guides the choice of intervention
by suggesting the pattern or drivers for clinical deterioration in the future.
- Abstract(参考訳): 透明性と説明可能性の欠如は、機械学習(ML)アルゴリズムの臨床的採用を妨げる。
様々な説明可能な人工知能(XAI)の手法が提案されているが、臨床環境への信頼を育むための基準に基づいて、その実践性を理解し評価する文献が不足している。
このギャップに対処するために,医療現場における予測モデルの説明に用いられている2つのXAI手法の評価を行った。
i) ドメインに適した表現、すなわち、アプリケーションタスクに関する一貫性を生成する。
(ii)臨床ワークフローに影響を及ぼすこと、及び
(iii) 一貫性がある。
そのために,コホートと患者レベルで発生した説明を分析した。
本稿では,XAI法の最初のベンチマークを,生成した説明書の一致と,データ収集システムによって記録された将来的な臨床劣化エピソードの引き金となるリスク予測モデルに適用した。
オーストラリアの主要病院から得られた2つの電子カルテ(EMR)データセットを用いて分析を行った。
本研究は,臨床現場における最先端XAI法の限界とその可能性を明らかにするものである。
これらの制約を議論し,臨床決定支援が今後の臨床劣化のパターンや要因を提案することによって介入の選択を導く,信頼性の高いXAIソリューションの理論的発展に寄与する。
関連論文リスト
- Reasoning-Enhanced Healthcare Predictions with Knowledge Graph Community Retrieval [61.70489848327436]
KAREは、知識グラフ(KG)コミュニティレベルの検索と大規模言語モデル(LLM)推論を統合する新しいフレームワークである。
MIMIC-IIIでは最大10.8~15.0%、MIMIC-IVでは12.6~12.7%である。
論文 参考訳(メタデータ) (2024-10-06T18:46:28Z) - XAI for In-hospital Mortality Prediction via Multimodal ICU Data [57.73357047856416]
マルチモーダルICUデータを用いて病院内死亡率を予測するための,効率的で説明可能なAIソリューションを提案する。
我々は,臨床データから異種入力を受信し,意思決定を行うマルチモーダル・ラーニングを我々のフレームワークに導入する。
我々の枠組みは、医療研究において重要な要素の発見を容易にする他の臨床課題に容易に移行することができる。
論文 参考訳(メタデータ) (2023-12-29T14:28:04Z) - Elucidating Discrepancy in Explanations of Predictive Models Developed
using EMR [2.1561701531034414]
透明性と説明責任の欠如は、機械学習(ML)アルゴリズムの臨床的採用を妨げる。
本研究は電子カルテ(EMR)データのために開発された臨床診断支援アルゴリズムに適用する。
論文 参考訳(メタデータ) (2023-11-28T10:13:31Z) - Deciphering knee osteoarthritis diagnostic features with explainable
artificial intelligence: A systematic review [4.918419052486409]
変形性膝関節症(OA)を診断するための既存の人工知能モデルは、その透明性と解釈可能性の欠如に対して批判を浴びている。
近年,説明可能な人工知能 (XAI) がモデルの予測に自信を与える特別な技術として出現している。
本報告では膝OA診断に用いるXAI技術について紹介する。
論文 参考訳(メタデータ) (2023-08-18T08:23:47Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - Context-dependent Explainability and Contestability for Trustworthy
Medical Artificial Intelligence: Misclassification Identification of
Morbidity Recognition Models in Preterm Infants [0.0]
説明可能なAI(XAI)は、エンドユーザーをサポートするAI推論を明確にすることで、この要件に対処することを目指している。
提案手法は,3つの主要な柱上に構築され,臨床コンテキストの潜時空間を利用して特徴セットを分解し,世界的説明の臨床的関連性を評価するとともに,局所的説明に基づく潜時空間類似性(LSS)を考察した。
論文 参考訳(メタデータ) (2022-12-17T07:59:09Z) - This Patient Looks Like That Patient: Prototypical Networks for
Interpretable Diagnosis Prediction from Clinical Text [56.32427751440426]
臨床実践においては、そのようなモデルは正確であるだけでなく、医師に解釈可能で有益な結果を与える必要がある。
本稿では,プロトタイプネットワークに基づく新しい手法であるProtoPatientを紹介する。
利用可能な2つの臨床データセット上でモデルを評価し、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-16T10:12:07Z) - Leveraging Clinical Context for User-Centered Explainability: A Diabetes
Use Case [4.520155732176645]
慢性腎臓病(CKD)のリスクを評価する2型糖尿病(T2DM)症例における概念実証(POC)を実装した。
POCには、CKDのリスク予測モデル、予測のポストホック説明器、その他の自然言語モジュールが含まれています。
我々のPOCアプローチは、複数の知識ソースと臨床シナリオをカバーし、データと予測をPCPに説明するために知識をブレンドし、医療専門家から熱心に反応した。
論文 参考訳(メタデータ) (2021-07-06T02:44:40Z) - Variational Knowledge Distillation for Disease Classification in Chest
X-Rays [102.04931207504173]
我々は,X線に基づく疾患分類のための新しい確率的推論フレームワークである反復的知識蒸留(VKD)を提案する。
提案手法の有効性を,X線画像とEHRを用いた3つの公開ベンチマークデータセットに示す。
論文 参考訳(メタデータ) (2021-03-19T14:13:56Z) - Clinical Outcome Prediction from Admission Notes using Self-Supervised
Knowledge Integration [55.88616573143478]
臨床テキストからのアウトカム予測は、医師が潜在的なリスクを見落としないようにする。
退院時の診断,手術手順,院内死亡率,長期予測は4つの一般的な結果予測対象である。
複数の公開資料から得られた患者結果に関する知識を統合するために,臨床結果の事前学習を提案する。
論文 参考訳(メタデータ) (2021-02-08T10:26:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。