論文の概要: Explaining a machine learning decision to physicians via counterfactuals
- arxiv url: http://arxiv.org/abs/2306.06325v1
- Date: Sat, 10 Jun 2023 00:49:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 19:43:35.752879
- Title: Explaining a machine learning decision to physicians via counterfactuals
- Title(参考訳): 偽物による機械学習決定の医師への説明
- Authors: Supriya Nagesh, Nina Mishra, Yonatan Naamad, James M. Rehg, Mehul A.
Shah, Alexei Wagner
- Abstract要約: 機械学習モデルは、いくつかの医療タスクでうまく機能し、医療システムの負担を軽減するのに役立つ。
しかし、説明責任の欠如は、病院における導入の大きな障害となっている。
本論文で考慮された説明は, 反実例(CF)であり, その逆の結果となる仮説的シナリオである。
- 参考スコア(独自算出の注目度): 16.7561343602079
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Machine learning models perform well on several healthcare tasks and can help
reduce the burden on the healthcare system. However, the lack of explainability
is a major roadblock to their adoption in hospitals. \textit{How can the
decision of an ML model be explained to a physician?} The explanations
considered in this paper are counterfactuals (CFs), hypothetical scenarios that
would have resulted in the opposite outcome. Specifically, time-series CFs are
investigated, inspired by the way physicians converse and reason out decisions
`I would have given the patient a vasopressor if their blood pressure was lower
and falling'. Key properties of CFs that are particularly meaningful in
clinical settings are outlined: physiological plausibility, relevance to the
task and sparse perturbations. Past work on CF generation does not satisfy
these properties, specifically plausibility in that realistic time-series CFs
are not generated. A variational autoencoder (VAE)-based approach is proposed
that captures these desired properties. The method produces CFs that improve on
prior approaches quantitatively (more plausible CFs as evaluated by their
likelihood w.r.t original data distribution, and 100$\times$ faster at
generating CFs) and qualitatively (2$\times$ more plausible and relevant) as
evaluated by three physicians.
- Abstract(参考訳): 機械学習モデルは、いくつかの医療タスクでうまく機能し、医療システムの負担を軽減するのに役立つ。
しかし、説明責任の欠如は、病院における導入の大きな障害となっている。
mlモデルの決定を医師に説明するには、どうすればよいのか?
} 本論文で考慮された説明は, 反事実 (CF) であり, その逆の結果となる仮説的シナリオである。
具体的には、医師の会話の仕方や「血圧が下がったら血管圧薬を患者に与える」という判断に触発されて、時系列CFを調査した。
臨床環境で特に有意義なCFの主な性質は、生理的妥当性、課題への関連性、スパース摂動である。
cf生成に関する過去の仕事はこれらの特性を満たしていない、具体的には、現実的な時系列cfは生成されない。
これらの特性をキャプチャする変分オートエンコーダ(vae)ベースのアプローチが提案されている。
本手法は, 従来の手法を定量的に改善するCF(Wr.tの原データ分布の確率で評価し, 100$\times$ CFの生成速度で評価し, 定性的に(2$\times$ より可塑性で関連性の高いCF)を生成する。
関連論文リスト
- Few shot chain-of-thought driven reasoning to prompt LLMs for open ended
medical question answering [25.163347677278182]
我々は,実生活における臨床シナリオを模倣するために,主観的なMedQA-USMLEデータセットの修正版を提案する。
我々は、主観的なMedQAデータセットに対して、arXiv:2207.08143から5-shot-codex-CoT-promptを修正し、インクリメンタル推論のプロンプトを開発することで、より良いコントラスト学習戦略を開発する。
論文 参考訳(メタデータ) (2024-03-07T20:48:40Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Automated Medical Coding on MIMIC-III and MIMIC-IV: A Critical Review
and Replicability Study [60.56194508762205]
我々は、最先端の医療自動化機械学習モデルを再現し、比較し、分析する。
その結果, 弱い構成, サンプル化の不十分さ, 評価の不十分さなどにより, いくつかのモデルの性能が低下していることが判明した。
再生モデルを用いたMIMIC-IVデータセットの総合評価を行った。
論文 参考訳(メタデータ) (2023-04-21T11:54:44Z) - Assisting clinical practice with fuzzy probabilistic decision trees [2.0999441362198907]
本研究では,確率木とファジィ論理を組み合わせて臨床実習を支援する新しい手法であるFPTを提案する。
FPTとその予測は、この目的のために特別に設計されたユーザフレンドリーなインターフェースを用いて、直感的に臨床実践を支援することができることを示す。
論文 参考訳(メタデータ) (2023-04-16T14:05:16Z) - Iterative Partial Fulfillment of Counterfactual Explanations: Benefits
and Risks [2.7793394375935088]
ファクトファクト(CF)の説明は、高い領域で機械学習モデルを説明するのに人気がある。
CFの説明を受けると、被験者は新たな予測を下す前に部分的に満たすだけでよいことを示す。
数学的にIPFを定式化し、理論的にも経験的にも、異なるCFアルゴリズムがIPFの下で大きく異なる振る舞いを示すことを示す。
論文 参考訳(メタデータ) (2023-03-17T14:41:09Z) - Retrieve, Reason, and Refine: Generating Accurate and Faithful Patient
Instructions [65.11629300465812]
臨床作業量を削減しつつ,不完全性を回避する客観的な手段を提供する新しい課題を提案する。
Re3Writerは医師の作業パターンを模倣し、医師によって書かれた歴史的なPIから関連する作業経験を最初に取得する。
その後、回収された作業経験を洗練させ、医療知識を推論して有用な情報を抽出する。
論文 参考訳(メタデータ) (2022-10-23T16:34:39Z) - What Do You See in this Patient? Behavioral Testing of Clinical NLP
Models [69.09570726777817]
本稿では,入力の変化に関する臨床結果モデルの振る舞いを評価する拡張可能なテストフレームワークを提案する。
私たちは、同じデータを微調整しても、モデル行動は劇的に変化し、最高のパフォーマンスのモデルが常に最も医学的に可能なパターンを学習していないことを示しています。
論文 参考訳(メタデータ) (2021-11-30T15:52:04Z) - Semi-Supervised Variational Reasoning for Medical Dialogue Generation [70.838542865384]
医療対話生成には,患者の状態と医師の行動の2つの重要な特徴がある。
医療対話生成のためのエンドツーエンドの変分推論手法を提案する。
行動分類器と2つの推論検出器から構成される医師政策ネットワークは、拡張推論能力のために提案される。
論文 参考訳(メタデータ) (2021-05-13T04:14:35Z) - Clinical Outcome Prediction from Admission Notes using Self-Supervised
Knowledge Integration [55.88616573143478]
臨床テキストからのアウトカム予測は、医師が潜在的なリスクを見落としないようにする。
退院時の診断,手術手順,院内死亡率,長期予測は4つの一般的な結果予測対象である。
複数の公開資料から得られた患者結果に関する知識を統合するために,臨床結果の事前学習を提案する。
論文 参考訳(メタデータ) (2021-02-08T10:26:44Z) - Interpretable Deep Models for Cardiac Resynchronisation Therapy Response
Prediction [8.152884957975354]
可変オートエンコーダ(VAE)に基づく画像分類のための新しいフレームワークを提案する。
VAEは、既存の臨床知識から引き出された説明に基づいて潜伏空間を解体する。
心臓磁気共鳴画像による心臓再同期療法(CRT)に対する心筋症の反応予測の枠組みを実証した。
論文 参考訳(メタデータ) (2020-06-24T15:35:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。