論文の概要: Methodological Explainability Evaluation of an Interpretable Deep Learning Model for Post-Hepatectomy Liver Failure Prediction Incorporating Counterfactual Explanations and Layerwise Relevance Propagation: A Prospective In Silico Trial
- arxiv url: http://arxiv.org/abs/2408.03771v1
- Date: Wed, 7 Aug 2024 13:47:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-08 12:54:35.772186
- Title: Methodological Explainability Evaluation of an Interpretable Deep Learning Model for Post-Hepatectomy Liver Failure Prediction Incorporating Counterfactual Explanations and Layerwise Relevance Propagation: A Prospective In Silico Trial
- Title(参考訳): 肝切除後肝不全予測のための解釈可能な深層学習モデルの方法論的説明可能性評価
- Authors: Xian Zhong, Zohaib Salahuddin, Yi Chen, Henry C Woodruff, Haiyi Long, Jianyun Peng, Nuwan Udawatte, Roberto Casale, Ayoub Mokhtari, Xiaoer Zhang, Jiayao Huang, Qingyu Wu, Li Tan, Lili Chen, Dongming Li, Xiaoyan Xie, Manxia Lin, Philippe Lambin,
- Abstract要約: 術前PHLF予測のための可変オートエンコーダ-多層パーセプトロン (VAE-MLP) モデルを開発した。
このモデルは、その意思決定メカニズムに関する洞察を提供するために、カウンターファクトアルとレイヤワイズ関連伝播(LRP)を統合した。
サイリコ臨床試験の3トラックの結果、AIの説明が提供されると、臨床医の予測精度と信頼性が向上した。
- 参考スコア(独自算出の注目度): 13.171582596404313
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Artificial intelligence (AI)-based decision support systems have demonstrated value in predicting post-hepatectomy liver failure (PHLF) in hepatocellular carcinoma (HCC). However, they often lack transparency, and the impact of model explanations on clinicians' decisions has not been thoroughly evaluated. Building on prior research, we developed a variational autoencoder-multilayer perceptron (VAE-MLP) model for preoperative PHLF prediction. This model integrated counterfactuals and layerwise relevance propagation (LRP) to provide insights into its decision-making mechanism. Additionally, we proposed a methodological framework for evaluating the explainability of AI systems. This framework includes qualitative and quantitative assessments of explanations against recognized biomarkers, usability evaluations, and an in silico clinical trial. Our evaluations demonstrated that the model's explanation correlated with established biomarkers and exhibited high usability at both the case and system levels. Furthermore, results from the three-track in silico clinical trial showed that clinicians' prediction accuracy and confidence increased when AI explanations were provided.
- Abstract(参考訳): 肝細胞癌(HCC)における肝切除後肝不全(PHLF)の予測には人工知能(AI)による意思決定支援システムが有用である。
しかし、それらは透明性を欠くことが多く、モデル説明が臨床医の判断に与える影響は十分に評価されていない。
術前のPHLF予測のための変異型自己エンコーダ多層パーセプトロン (VAE-MLP) モデルを開発した。
このモデルは、その意思決定メカニズムに関する洞察を提供するために、カウンターファクトアルとレイヤワイズ関連伝播(LRP)を統合した。
さらに,AIシステムの説明可能性を評価するための方法論的枠組みを提案した。
このフレームワークは、認識されたバイオマーカーに対する説明の質的および定量的な評価、ユーザビリティの評価、およびサイリコ臨床試験を含む。
評価の結果, モデルの説明は確立されたバイオマーカーと相関し, ケースおよびシステムレベルで高いユーザビリティを示した。
さらに,サイリコ臨床試験の3トラックの結果,AIの説明が提供されると,臨床医の予測精度と信頼性が向上した。
関連論文リスト
- Concept-based Explainable Malignancy Scoring on Pulmonary Nodules in CT Images [2.2120851074630177]
一般化加法モデルと概念ベース学習を適用した解釈可能なモデルを提案する。
本モデルは、最終回帰スコアに加えて臨床的に重要な属性のセットを検出し、肺結節属性と最終診断決定との関係を学習する。
論文 参考訳(メタデータ) (2024-05-24T13:36:44Z) - Evaluation of Popular XAI Applied to Clinical Prediction Models: Can
They be Trusted? [2.0089256058364358]
透明性と説明可能性の欠如は、機械学習(ML)アルゴリズムの臨床的採用を妨げる。
本研究は、医療現場における予測モデルの説明に使用される2つの一般的なXAI手法を評価する。
論文 参考訳(メタデータ) (2023-06-21T02:29:30Z) - Explainable AI for Malnutrition Risk Prediction from m-Health and
Clinical Data [3.093890460224435]
異種m-healthデータに基づく早期かつ説明可能な栄養失調リスク検出のための新しいAIフレームワークを提案する。
対象非依存および個人化予測を含む広範囲なモデル評価を行った。
また,グローバルモデル記述を抽出するベンチマークXAI法についても検討した。
論文 参考訳(メタデータ) (2023-05-31T08:07:35Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - Benchmarking Heterogeneous Treatment Effect Models through the Lens of
Interpretability [82.29775890542967]
治療のパーソナライズされた効果を見積もるのは複雑だが、普及している問題である。
ヘテロジニアス処理効果推定に関する機械学習文献の最近の進歩は、洗練されたが不透明なツールの多くを生み出した。
我々は、ポストホックな特徴重要度法を用いて、モデルの予測に影響を及ぼす特徴を特定する。
論文 参考訳(メタデータ) (2022-06-16T17:59:05Z) - Assessing the communication gap between AI models and healthcare
professionals: explainability, utility and trust in AI-driven clinical
decision-making [1.7809957179929814]
本稿では,臨床診断支援のための機械学習モデル(ML)の実用的評価フレームワークを提案する。
この研究は、MLの説明モデルにおいて、これらが臨床的文脈に実用的に埋め込まれているとき、よりニュアンスな役割を明らかにした。
論文 参考訳(メタデータ) (2022-04-11T11:59:04Z) - What Do You See in this Patient? Behavioral Testing of Clinical NLP
Models [69.09570726777817]
本稿では,入力の変化に関する臨床結果モデルの振る舞いを評価する拡張可能なテストフレームワークを提案する。
私たちは、同じデータを微調整しても、モデル行動は劇的に変化し、最高のパフォーマンスのモデルが常に最も医学的に可能なパターンを学習していないことを示しています。
論文 参考訳(メタデータ) (2021-11-30T15:52:04Z) - Quantifying Explainability in NLP and Analyzing Algorithms for
Performance-Explainability Tradeoff [0.0]
臨床テキスト分類におけるケーススタディにおける説明可能性と解釈可能性の現状について考察する。
完全解釈可能な手法とモデルに依存しないポストホック属性に対する様々な可視化手法を実証する。
我々は,モデルの予測性能と利用可能な説明の質との間のフロンティアを,実践者や研究者が評価できる枠組みを導入する。
論文 参考訳(メタデータ) (2021-07-12T19:07:24Z) - A multi-stage machine learning model on diagnosis of esophageal
manometry [50.591267188664666]
このフレームワークには、飲み込みレベルにおけるディープラーニングモデルと、学習レベルにおける機能ベースの機械学習モデルが含まれている。
これは、生のマルチスワローデータからHRM研究のCC診断を自動的に予測する最初の人工知能モデルである。
論文 参考訳(メタデータ) (2021-06-25T20:09:23Z) - Clinical Outcome Prediction from Admission Notes using Self-Supervised
Knowledge Integration [55.88616573143478]
臨床テキストからのアウトカム予測は、医師が潜在的なリスクを見落としないようにする。
退院時の診断,手術手順,院内死亡率,長期予測は4つの一般的な結果予測対象である。
複数の公開資料から得られた患者結果に関する知識を統合するために,臨床結果の事前学習を提案する。
論文 参考訳(メタデータ) (2021-02-08T10:26:44Z) - Neuro-symbolic Neurodegenerative Disease Modeling as Probabilistic
Programmed Deep Kernels [93.58854458951431]
本稿では、神経変性疾患のパーソナライズされた予測モデリングのための、確率的プログラムによる深層カーネル学習手法を提案する。
我々の分析は、ニューラルネットワークとシンボリック機械学習のアプローチのスペクトルを考慮する。
我々は、アルツハイマー病の予測問題について評価を行い、深層学習を超越した結果を得た。
論文 参考訳(メタデータ) (2020-09-16T15:16:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。