論文の概要: Explainable AI for clinical risk prediction: a survey of concepts,
methods, and modalities
- arxiv url: http://arxiv.org/abs/2308.08407v1
- Date: Wed, 16 Aug 2023 14:51:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-17 13:04:07.453501
- Title: Explainable AI for clinical risk prediction: a survey of concepts,
methods, and modalities
- Title(参考訳): 臨床リスク予測のための説明可能なAI:概念・方法・モダリティの調査
- Authors: Munib Mesinovic, Peter Watkinson, Tingting Zhu
- Abstract要約: 臨床リスク予測のための説明可能なモデルの開発状況
外部検証の必要性と多様な解釈可能性メソッドの組み合わせを強調している。
臨床リスク予測における説明可能性へのエンドツーエンドアプローチは成功に不可欠である。
- 参考スコア(独自算出の注目度): 2.9404725327650767
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in AI applications to healthcare have shown incredible
promise in surpassing human performance in diagnosis and disease prognosis.
With the increasing complexity of AI models, however, concerns regarding their
opacity, potential biases, and the need for interpretability. To ensure trust
and reliability in AI systems, especially in clinical risk prediction models,
explainability becomes crucial. Explainability is usually referred to as an AI
system's ability to provide a robust interpretation of its decision-making
logic or the decisions themselves to human stakeholders. In clinical risk
prediction, other aspects of explainability like fairness, bias, trust, and
transparency also represent important concepts beyond just interpretability. In
this review, we address the relationship between these concepts as they are
often used together or interchangeably. This review also discusses recent
progress in developing explainable models for clinical risk prediction,
highlighting the importance of quantitative and clinical evaluation and
validation across multiple common modalities in clinical practice. It
emphasizes the need for external validation and the combination of diverse
interpretability methods to enhance trust and fairness. Adopting rigorous
testing, such as using synthetic datasets with known generative factors, can
further improve the reliability of explainability methods. Open access and
code-sharing resources are essential for transparency and reproducibility,
enabling the growth and trustworthiness of explainable research. While
challenges exist, an end-to-end approach to explainability in clinical risk
prediction, incorporating stakeholders from clinicians to developers, is
essential for success.
- Abstract(参考訳): 医療へのAI応用の最近の進歩は、診断と疾患の予後において、人間のパフォーマンスを超えるという驚くべき可能性を示している。
しかし、AIモデルの複雑さが増すにつれ、不透明感、潜在的なバイアス、解釈可能性の必要性が懸念される。
aiシステム、特に臨床リスク予測モデルにおける信頼性と信頼性を確保するためには、説明可能性が不可欠となる。
説明可能性は通常、AIシステムの能力として、意思決定ロジックやそれ自身を人間の利害関係者に堅牢な解釈を提供する。
臨床リスク予測では、公平性、バイアス、信頼、透明性といった説明可能性の他の側面も、単に解釈可能性以上の重要な概念を表している。
このレビューでは、これらの概念が一緒に、あるいは交換的に使用される場合が多いため、これらの概念間の関係について論じる。
本総説では, 臨床リスク予測のための説明可能なモデル開発における最近の進歩を考察し, 臨床実践における定量的, 臨床的評価の重要性と, 複数の共通モダリティの検証について述べる。
外部検証の必要性と,信頼と公正性を高めるための多種多様な解釈可能性手法の組み合わせを強調している。
既知の生成要因を持つ合成データセットの使用のような厳密なテストを採用することで、説明可能性法の信頼性をさらに向上することができる。
オープンアクセスとコード共有リソースは透明性と再現性に不可欠であり、説明可能な研究の成長と信頼性を可能にする。
課題はあるが、臨床リスク予測における説明可能性に対するエンドツーエンドのアプローチは、臨床医から開発者へのステークホルダーを取り入れることが成功に不可欠である。
関連論文リスト
- Explainable AI for Malnutrition Risk Prediction from m-Health and
Clinical Data [3.093890460224435]
異種m-healthデータに基づく早期かつ説明可能な栄養失調リスク検出のための新しいAIフレームワークを提案する。
対象非依存および個人化予測を含む広範囲なモデル評価を行った。
また,グローバルモデル記述を抽出するベンチマークXAI法についても検討した。
論文 参考訳(メタデータ) (2023-05-31T08:07:35Z) - Assisting clinical practice with fuzzy probabilistic decision trees [2.0999441362198907]
本研究では,確率木とファジィ論理を組み合わせて臨床実習を支援する新しい手法であるFPTを提案する。
FPTとその予測は、この目的のために特別に設計されたユーザフレンドリーなインターフェースを用いて、直感的に臨床実践を支援することができることを示す。
論文 参考訳(メタデータ) (2023-04-16T14:05:16Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - Can Current Explainability Help Provide References in Clinical Notes to
Support Humans Annotate Medical Codes? [53.45585591262433]
本稿では、注意スコアに基づくxRAC-ATTNと、モデルに依存しない知識蒸留に基づくxRAC-KDの2つのアプローチについて説明する。
我々は,xRAC-ATTNが強調した支持エビデンステキストが,xRAC-KDよりも高品質であるのに対して,xRAC-KDは本番環境において潜在的に有利であることを示した。
論文 参考訳(メタデータ) (2022-10-28T04:06:07Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Clinical Outcome Prediction from Admission Notes using Self-Supervised
Knowledge Integration [55.88616573143478]
臨床テキストからのアウトカム予測は、医師が潜在的なリスクを見落としないようにする。
退院時の診断,手術手順,院内死亡率,長期予測は4つの一般的な結果予測対象である。
複数の公開資料から得られた患者結果に関する知識を統合するために,臨床結果の事前学習を提案する。
論文 参考訳(メタデータ) (2021-02-08T10:26:44Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - The role of explainability in creating trustworthy artificial
intelligence for health care: a comprehensive survey of the terminology,
design choices, and evaluation strategies [1.2762298148425795]
透明性の欠如は、医療におけるAIシステムの実装における主要な障壁の1つとして認識されている。
我々は最近の文献をレビューし、説明可能なAIシステムの設計について研究者や実践者にガイダンスを提供する。
我々は、説明可能なモデリングが信頼できるAIに貢献できると結論づけるが、説明可能性の利点は実際に証明する必要がある。
論文 参考訳(メタデータ) (2020-07-31T09:08:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。