論文の概要: Explainable AI for clinical risk prediction: a survey of concepts,
methods, and modalities
- arxiv url: http://arxiv.org/abs/2308.08407v1
- Date: Wed, 16 Aug 2023 14:51:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-17 13:04:07.453501
- Title: Explainable AI for clinical risk prediction: a survey of concepts,
methods, and modalities
- Title(参考訳): 臨床リスク予測のための説明可能なAI:概念・方法・モダリティの調査
- Authors: Munib Mesinovic, Peter Watkinson, Tingting Zhu
- Abstract要約: 臨床リスク予測のための説明可能なモデルの開発状況
外部検証の必要性と多様な解釈可能性メソッドの組み合わせを強調している。
臨床リスク予測における説明可能性へのエンドツーエンドアプローチは成功に不可欠である。
- 参考スコア(独自算出の注目度): 2.9404725327650767
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in AI applications to healthcare have shown incredible
promise in surpassing human performance in diagnosis and disease prognosis.
With the increasing complexity of AI models, however, concerns regarding their
opacity, potential biases, and the need for interpretability. To ensure trust
and reliability in AI systems, especially in clinical risk prediction models,
explainability becomes crucial. Explainability is usually referred to as an AI
system's ability to provide a robust interpretation of its decision-making
logic or the decisions themselves to human stakeholders. In clinical risk
prediction, other aspects of explainability like fairness, bias, trust, and
transparency also represent important concepts beyond just interpretability. In
this review, we address the relationship between these concepts as they are
often used together or interchangeably. This review also discusses recent
progress in developing explainable models for clinical risk prediction,
highlighting the importance of quantitative and clinical evaluation and
validation across multiple common modalities in clinical practice. It
emphasizes the need for external validation and the combination of diverse
interpretability methods to enhance trust and fairness. Adopting rigorous
testing, such as using synthetic datasets with known generative factors, can
further improve the reliability of explainability methods. Open access and
code-sharing resources are essential for transparency and reproducibility,
enabling the growth and trustworthiness of explainable research. While
challenges exist, an end-to-end approach to explainability in clinical risk
prediction, incorporating stakeholders from clinicians to developers, is
essential for success.
- Abstract(参考訳): 医療へのAI応用の最近の進歩は、診断と疾患の予後において、人間のパフォーマンスを超えるという驚くべき可能性を示している。
しかし、AIモデルの複雑さが増すにつれ、不透明感、潜在的なバイアス、解釈可能性の必要性が懸念される。
aiシステム、特に臨床リスク予測モデルにおける信頼性と信頼性を確保するためには、説明可能性が不可欠となる。
説明可能性は通常、AIシステムの能力として、意思決定ロジックやそれ自身を人間の利害関係者に堅牢な解釈を提供する。
臨床リスク予測では、公平性、バイアス、信頼、透明性といった説明可能性の他の側面も、単に解釈可能性以上の重要な概念を表している。
このレビューでは、これらの概念が一緒に、あるいは交換的に使用される場合が多いため、これらの概念間の関係について論じる。
本総説では, 臨床リスク予測のための説明可能なモデル開発における最近の進歩を考察し, 臨床実践における定量的, 臨床的評価の重要性と, 複数の共通モダリティの検証について述べる。
外部検証の必要性と,信頼と公正性を高めるための多種多様な解釈可能性手法の組み合わせを強調している。
既知の生成要因を持つ合成データセットの使用のような厳密なテストを採用することで、説明可能性法の信頼性をさらに向上することができる。
オープンアクセスとコード共有リソースは透明性と再現性に不可欠であり、説明可能な研究の成長と信頼性を可能にする。
課題はあるが、臨床リスク予測における説明可能性に対するエンドツーエンドのアプローチは、臨床医から開発者へのステークホルダーを取り入れることが成功に不可欠である。
関連論文リスト
- On the Fairness, Diversity and Reliability of Text-to-Image Generative Models [49.60774626839712]
マルチモーダル生成モデルは 彼らの公正さ、信頼性、そして誤用の可能性について 批判的な議論を呼んだ
組込み空間における摂動に対する応答を通じてモデルの信頼性を評価するための評価フレームワークを提案する。
本手法は, 信頼できない, バイアス注入されたモデルを検出し, バイアス前駆体の検索を行うための基礎となる。
論文 参考訳(メタデータ) (2024-11-21T09:46:55Z) - Which Client is Reliable?: A Reliable and Personalized Prompt-based Federated Learning for Medical Image Question Answering [51.26412822853409]
本稿では,医学的視覚的質問応答(VQA)モデルのための,パーソナライズド・フェデレーションド・ラーニング(pFL)手法を提案する。
提案手法では,学習可能なプロンプトをTransformerアーキテクチャに導入し,膨大な計算コストを伴わずに,多様な医療データセット上で効率的にトレーニングする。
論文 参考訳(メタデータ) (2024-10-23T00:31:17Z) - Bayesian Kolmogorov Arnold Networks (Bayesian_KANs): A Probabilistic Approach to Enhance Accuracy and Interpretability [1.90365714903665]
本研究では,Bayesian Kolmogorov Arnold Networks(BKANs)と呼ばれる新しいフレームワークを提案する。
BKANはコルモゴロフ・アーノルドネットワークの表現能力とベイズ推定を組み合わせたものである。
提案手法は,予測信頼度と決定境界に関する有用な知見を提供し,予測精度の観点から従来のディープラーニングモデルより優れている。
論文 参考訳(メタデータ) (2024-08-05T10:38:34Z) - Explainable AI for Fair Sepsis Mortality Predictive Model [3.556697333718976]
本稿では、性能最適化予測モデルを学習し、転送学習プロセスを用いて、より公正なモデルを生成する方法を提案する。
我々の手法は、予測モデル内のバイアスを特定し緩和するだけでなく、医療関係者間の信頼を高める。
論文 参考訳(メタデータ) (2024-04-19T18:56:46Z) - Explainable AI for Malnutrition Risk Prediction from m-Health and
Clinical Data [3.093890460224435]
異種m-healthデータに基づく早期かつ説明可能な栄養失調リスク検出のための新しいAIフレームワークを提案する。
対象非依存および個人化予測を含む広範囲なモデル評価を行った。
また,グローバルモデル記述を抽出するベンチマークXAI法についても検討した。
論文 参考訳(メタデータ) (2023-05-31T08:07:35Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Clinical Outcome Prediction from Admission Notes using Self-Supervised
Knowledge Integration [55.88616573143478]
臨床テキストからのアウトカム予測は、医師が潜在的なリスクを見落としないようにする。
退院時の診断,手術手順,院内死亡率,長期予測は4つの一般的な結果予測対象である。
複数の公開資料から得られた患者結果に関する知識を統合するために,臨床結果の事前学習を提案する。
論文 参考訳(メタデータ) (2021-02-08T10:26:44Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - The role of explainability in creating trustworthy artificial
intelligence for health care: a comprehensive survey of the terminology,
design choices, and evaluation strategies [1.2762298148425795]
透明性の欠如は、医療におけるAIシステムの実装における主要な障壁の1つとして認識されている。
我々は最近の文献をレビューし、説明可能なAIシステムの設計について研究者や実践者にガイダンスを提供する。
我々は、説明可能なモデリングが信頼できるAIに貢献できると結論づけるが、説明可能性の利点は実際に証明する必要がある。
論文 参考訳(メタデータ) (2020-07-31T09:08:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。