論文の概要: Explainable AI for Clinical Outcome Prediction: A Survey of Clinician Perceptions and Preferences
- arxiv url: http://arxiv.org/abs/2502.20478v1
- Date: Thu, 27 Feb 2025 19:30:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-03 13:42:42.430054
- Title: Explainable AI for Clinical Outcome Prediction: A Survey of Clinician Perceptions and Preferences
- Title(参考訳): 臨床結果予測のための説明可能なAI:臨床医の知覚と嗜好に関する調査
- Authors: Jun Hou, Lucy Lu Wang,
- Abstract要約: 説明可能なAI(XAI)技術は、臨床医がAI予測を理解し、予測を意思決定ワークフローに統合するために必要である。
本研究は、ICUの入院記録を用いて、院内死亡率を予測する結果予測モデルに、4つのXAI手法を実装した。
臨床医32名を対象に調査を行い,そのフィードバックと嗜好を4つの手法で収集した。
我々は,これらの知見を,XAI技術がいつより適切か,その潜在的な限界,改善のためのレコメンデーションなどを説明する一連のレコメンデーションに合成する。
- 参考スコア(独自算出の注目度): 11.236899989769574
- License:
- Abstract: Explainable AI (XAI) techniques are necessary to help clinicians make sense of AI predictions and integrate predictions into their decision-making workflow. In this work, we conduct a survey study to understand clinician preference among different XAI techniques when they are used to interpret model predictions over text-based EHR data. We implement four XAI techniques (LIME, Attention-based span highlights, exemplar patient retrieval, and free-text rationales generated by LLMs) on an outcome prediction model that uses ICU admission notes to predict a patient's likelihood of experiencing in-hospital mortality. Using these XAI implementations, we design and conduct a survey study of 32 practicing clinicians, collecting their feedback and preferences on the four techniques. We synthesize our findings into a set of recommendations describing when each of the XAI techniques may be more appropriate, their potential limitations, as well as recommendations for improvement.
- Abstract(参考訳): 説明可能なAI(XAI)技術は、臨床医がAI予測を理解し、予測を意思決定ワークフローに統合するために必要である。
本研究では,テキストベースのEHRデータを用いたモデル予測の解釈において,異なるXAI手法のクリニカルな嗜好を理解するための調査研究を行う。
我々は、ICUの入院記録を用いて、院内死亡の確率を予測する結果予測モデルに、4つのXAI技術(LIME, Attention-based span highlights, exemplar patient search, and free-text rationales by LLMs)を実装した。
これらのXAI実装を用いて,32名の臨床医を対象としたアンケート調査を行い,そのフィードバックと嗜好を4つの手法で収集した。
我々は,これらの知見を,XAI技術がいつより適切か,その潜在的な限界,改善のためのレコメンデーションなどを説明する一連のレコメンデーションに合成する。
関連論文リスト
- 2-Factor Retrieval for Improved Human-AI Decision Making in Radiology [41.2574078312095]
本研究では、従来使用されていたAI技術と「2要素探索(2FR)」と呼ばれる新たな手法を比較した。
2FRは、インタフェース設計と検索検索の組み合わせで、同様のラベル付きデータを、このデータを処理せずに返す。
胸部X線診断で検査すると, 2FRは, 臨床医が放射線科医である場合に, 臨床医の精度が向上することがわかった。
論文 参考訳(メタデータ) (2024-11-30T06:44:42Z) - XAI for In-hospital Mortality Prediction via Multimodal ICU Data [57.73357047856416]
マルチモーダルICUデータを用いて病院内死亡率を予測するための,効率的で説明可能なAIソリューションを提案する。
我々は,臨床データから異種入力を受信し,意思決定を行うマルチモーダル・ラーニングを我々のフレームワークに導入する。
我々の枠組みは、医療研究において重要な要素の発見を容易にする他の臨床課題に容易に移行することができる。
論文 参考訳(メタデータ) (2023-12-29T14:28:04Z) - Deciphering knee osteoarthritis diagnostic features with explainable
artificial intelligence: A systematic review [4.918419052486409]
変形性膝関節症(OA)を診断するための既存の人工知能モデルは、その透明性と解釈可能性の欠如に対して批判を浴びている。
近年,説明可能な人工知能 (XAI) がモデルの予測に自信を与える特別な技術として出現している。
本報告では膝OA診断に用いるXAI技術について紹介する。
論文 参考訳(メタデータ) (2023-08-18T08:23:47Z) - Evaluation of Popular XAI Applied to Clinical Prediction Models: Can
They be Trusted? [2.0089256058364358]
透明性と説明可能性の欠如は、機械学習(ML)アルゴリズムの臨床的採用を妨げる。
本研究は、医療現場における予測モデルの説明に使用される2つの一般的なXAI手法を評価する。
論文 参考訳(メタデータ) (2023-06-21T02:29:30Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - This Patient Looks Like That Patient: Prototypical Networks for
Interpretable Diagnosis Prediction from Clinical Text [56.32427751440426]
臨床実践においては、そのようなモデルは正確であるだけでなく、医師に解釈可能で有益な結果を与える必要がある。
本稿では,プロトタイプネットワークに基づく新しい手法であるProtoPatientを紹介する。
利用可能な2つの臨床データセット上でモデルを評価し、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-16T10:12:07Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - Explainable Artificial Intelligence Methods in Combating Pandemics: A
Systematic Review [7.140215556873923]
新型コロナウイルス(COVID-19)パンデミックにおける人工知能の影響は、モデルの透明性の欠如によって大幅に制限された。
XAIをうまく利用すれば、モデルの性能を改善し、エンドユーザに信頼を与え、ユーザの意思決定に影響を与えるのに必要な価値を提供することができる。
論文 参考訳(メタデータ) (2021-12-23T16:55:27Z) - Explainable Deep Learning in Healthcare: A Methodological Survey from an
Attribution View [36.025217954247125]
本稿では,今後の研究者や臨床医の方法論として,深部・包括的に解釈可能性の方法を紹介した。
我々は、これらの方法が医療問題にどのように適応し、適用されたか、また、医師がこれらのデータ駆動技術をよりよく理解するのにどのように役立つかについて議論する。
論文 参考訳(メタデータ) (2021-12-05T17:12:53Z) - Clinical Outcome Prediction from Admission Notes using Self-Supervised
Knowledge Integration [55.88616573143478]
臨床テキストからのアウトカム予測は、医師が潜在的なリスクを見落としないようにする。
退院時の診断,手術手順,院内死亡率,長期予測は4つの一般的な結果予測対象である。
複数の公開資料から得られた患者結果に関する知識を統合するために,臨床結果の事前学習を提案する。
論文 参考訳(メタデータ) (2021-02-08T10:26:44Z) - BiteNet: Bidirectional Temporal Encoder Network to Predict Medical
Outcomes [53.163089893876645]
本稿では,患者の医療旅行におけるコンテキスト依存と時間的関係を捉える,新たな自己注意機構を提案する。
エンド・ツー・エンドの双方向時間エンコーダネットワーク(BiteNet)が患者の旅路の表現を学習する。
実世界のEHRデータセットを用いた2つの教師付き予測と2つの教師なしクラスタリングタスクにおける手法の有効性を評価した。
論文 参考訳(メタデータ) (2020-09-24T00:42:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。