論文の概要: Using Explainable AI to Cross-Validate Socio-economic Disparities Among
Covid-19 Patient Mortality
- arxiv url: http://arxiv.org/abs/2302.08605v1
- Date: Thu, 16 Feb 2023 22:09:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-20 16:36:22.511740
- Title: Using Explainable AI to Cross-Validate Socio-economic Disparities Among
Covid-19 Patient Mortality
- Title(参考訳): 説明可能なAIによるCovid-19患者死亡率の社会経済格差の相互比較
- Authors: Li Shi, Redoan Rahman, Esther Melamed, Jacek Gwizdka, Justin F.
Rousseau, Ying Ding
- Abstract要約: 本稿では、XAI法を用いて、新型コロナウイルス患者の死亡率における社会経済的格差について検討する。
XAIモデルは、メディケアのファイナンシャルクラス、高齢者、性別が死亡予測に高い影響を与えることを明らかにした。
- 参考スコア(独自算出の注目度): 7.897897974226182
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper applies eXplainable Artificial Intelligence (XAI) methods to
investigate the socioeconomic disparities in COVID patient mortality. An
Extreme Gradient Boosting (XGBoost) prediction model is built based on a
de-identified Austin area hospital dataset to predict the mortality of COVID-19
patients. We apply two XAI methods, Shapley Additive exPlanations (SHAP) and
Locally Interpretable Model Agnostic Explanations (LIME), to compare the global
and local interpretation of feature importance. This paper demonstrates the
advantages of using XAI which shows the feature importance and decisive
capability. Furthermore, we use the XAI methods to cross-validate their
interpretations for individual patients. The XAI models reveal that Medicare
financial class, older age, and gender have high impact on the mortality
prediction. We find that LIME local interpretation does not show significant
differences in feature importance comparing to SHAP, which suggests pattern
confirmation. This paper demonstrates the importance of XAI methods in
cross-validation of feature attributions.
- Abstract(参考訳): 本稿では、eXplainable Artificial Intelligence (XAI)法を適用し、新型コロナウイルス患者の死亡率における社会経済的格差について検討する。
xgboost(extreme gradient boosting)予測モデルは、未確認のオースティン地域病院データセットに基づいて構築され、covid-19患者の死亡率を予測する。
本稿では,2つのXAI手法,Shapley Additive exPlanations (SHAP) とLocally Interpretable Model Agnostic Explanations (LIME) を適用し,特徴のグローバルな解釈と局所的な解釈を比較した。
本稿では,特徴の重要性と決定性を示すXAIの利点を示す。
さらに,XAI法を用いて患者の解釈を相互に検証する。
xaiモデルによれば、メディケアのファイナンシャルクラス、高齢者、性別は死亡予測に大きな影響を与えている。
LIMEの局所的解釈はSHAPと比較して特徴的重要性に有意な差は見られず,パターンの確認が示唆された。
本稿では,特徴属性の相互検証におけるXAI手法の重要性を示す。
関連論文リスト
- IBO: Inpainting-Based Occlusion to Enhance Explainable Artificial Intelligence Evaluation in Histopathology [1.9440228513607511]
Inpainting-Based Occlusion (IBO) は,Denoising Diffusion Probabilistic Model を利用した新しい手法である。
まず,学習された知覚的イメージパッチ類似度(LPIPS)測定値を用いて知覚的類似性を評価するとともに,AUC分析によるモデル予測への影響を定量化する。
論文 参考訳(メタデータ) (2024-08-29T09:57:55Z) - MedDiffusion: Boosting Health Risk Prediction via Diffusion-based Data
Augmentation [58.93221876843639]
本稿では,MedDiffusion という,エンドツーエンドの拡散に基づくリスク予測モデルを提案する。
トレーニング中に合成患者データを作成し、サンプルスペースを拡大することで、リスク予測性能を向上させる。
ステップワイズ・アテンション・メカニズムを用いて患者の来訪者間の隠れた関係を識別し、高品質なデータを生成する上で最も重要な情報をモデルが自動的に保持することを可能にする。
論文 参考訳(メタデータ) (2023-10-04T01:36:30Z) - Evaluation of Popular XAI Applied to Clinical Prediction Models: Can
They be Trusted? [2.0089256058364358]
透明性と説明可能性の欠如は、機械学習(ML)アルゴリズムの臨床的採用を妨げる。
本研究は、医療現場における予測モデルの説明に使用される2つの一般的なXAI手法を評価する。
論文 参考訳(メタデータ) (2023-06-21T02:29:30Z) - An Experimental Investigation into the Evaluation of Explainability
Methods [60.54170260771932]
この研究は、9つの最先端XAI法と3つのダミー法(例えば、ランダム・サリエンシ・マップ)に適用された14の異なるメトリクスを比較した。
実験の結果、これらの指標のどれが高い相関関係を示し、潜在的な冗長性を示している。
論文 参考訳(メタデータ) (2023-05-25T08:07:07Z) - Analysis and Evaluation of Explainable Artificial Intelligence on
Suicide Risk Assessment [32.04382293817763]
本研究では,自殺リスク予測における説明可能な人工知能(XAI)技術の有効性について検討した。
データ拡張技術とMLモデルは、関連するリスクを予測するために使用される。
高い収入、高い職業、大学教育を持つ患者は、最もリスクが低い。
論文 参考訳(メタデータ) (2023-03-09T05:11:46Z) - Towards Trust of Explainable AI in Thyroid Nodule Diagnosis [0.0]
我々は,甲状腺結節診断アプリケーションにおけるブラックボックスAIモデルの予測を説明するために,最先端のeXplainable AI(XAI)手法を適用した。
我々は,検出された結節が存在しない場合を説明するために,新しい統計ベースのXAI手法,すなわちカーネル密度推定と密度マップを提案する。
論文 参考訳(メタデータ) (2023-03-08T17:18:13Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - Bootstrapping Your Own Positive Sample: Contrastive Learning With
Electronic Health Record Data [62.29031007761901]
本稿では,新しいコントラスト型正規化臨床分類モデルを提案する。
EHRデータに特化した2つのユニークなポジティブサンプリング戦略を紹介します。
私たちのフレームワークは、現実世界のCOVID-19 EHRデータの死亡リスクを予測するために、競争の激しい実験結果をもたらします。
論文 参考訳(メタデータ) (2021-04-07T06:02:04Z) - Explaining COVID-19 and Thoracic Pathology Model Predictions by
Identifying Informative Input Features [47.45835732009979]
ニューラルネットワークは胸部X線上の分類および回帰タスクにおいて顕著な性能を示した。
特徴帰属法は、出力予測における入力特徴の重要性を識別する。
本研究では,NIH Chest X-ray8およびBrixIAデータセット上で,人間中心の解釈可能性指標と人間に依存しない特徴重要度指標の両方を用いて評価する。
論文 参考訳(メタデータ) (2021-04-01T11:42:39Z) - Variational Knowledge Distillation for Disease Classification in Chest
X-Rays [102.04931207504173]
我々は,X線に基づく疾患分類のための新しい確率的推論フレームワークである反復的知識蒸留(VKD)を提案する。
提案手法の有効性を,X線画像とEHRを用いた3つの公開ベンチマークデータセットに示す。
論文 参考訳(メタデータ) (2021-03-19T14:13:56Z) - Gradient Boosting on Decision Trees for Mortality Prediction in
Transcatheter Aortic Valve Implantation [5.050648346154715]
心臓外科における現在の予後リスクスコアは統計に基づいており、まだ機械学習の恩恵を受けていない。
本研究は,TAVI後の患者の1年間の死亡率を予測する機械学習モデルの構築を目的とする。
論文 参考訳(メタデータ) (2020-01-08T10:04:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。