論文の概要: Explaining a machine learning decision to physicians via counterfactuals
- arxiv url: http://arxiv.org/abs/2306.06325v1
- Date: Sat, 10 Jun 2023 00:49:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 19:43:35.752879
- Title: Explaining a machine learning decision to physicians via counterfactuals
- Title(参考訳): 偽物による機械学習決定の医師への説明
- Authors: Supriya Nagesh, Nina Mishra, Yonatan Naamad, James M. Rehg, Mehul A.
Shah, Alexei Wagner
- Abstract要約: 機械学習モデルは、いくつかの医療タスクでうまく機能し、医療システムの負担を軽減するのに役立つ。
しかし、説明責任の欠如は、病院における導入の大きな障害となっている。
本論文で考慮された説明は, 反実例(CF)であり, その逆の結果となる仮説的シナリオである。
- 参考スコア(独自算出の注目度): 16.7561343602079
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Machine learning models perform well on several healthcare tasks and can help
reduce the burden on the healthcare system. However, the lack of explainability
is a major roadblock to their adoption in hospitals. \textit{How can the
decision of an ML model be explained to a physician?} The explanations
considered in this paper are counterfactuals (CFs), hypothetical scenarios that
would have resulted in the opposite outcome. Specifically, time-series CFs are
investigated, inspired by the way physicians converse and reason out decisions
`I would have given the patient a vasopressor if their blood pressure was lower
and falling'. Key properties of CFs that are particularly meaningful in
clinical settings are outlined: physiological plausibility, relevance to the
task and sparse perturbations. Past work on CF generation does not satisfy
these properties, specifically plausibility in that realistic time-series CFs
are not generated. A variational autoencoder (VAE)-based approach is proposed
that captures these desired properties. The method produces CFs that improve on
prior approaches quantitatively (more plausible CFs as evaluated by their
likelihood w.r.t original data distribution, and 100$\times$ faster at
generating CFs) and qualitatively (2$\times$ more plausible and relevant) as
evaluated by three physicians.
- Abstract(参考訳): 機械学習モデルは、いくつかの医療タスクでうまく機能し、医療システムの負担を軽減するのに役立つ。
しかし、説明責任の欠如は、病院における導入の大きな障害となっている。
mlモデルの決定を医師に説明するには、どうすればよいのか?
} 本論文で考慮された説明は, 反事実 (CF) であり, その逆の結果となる仮説的シナリオである。
具体的には、医師の会話の仕方や「血圧が下がったら血管圧薬を患者に与える」という判断に触発されて、時系列CFを調査した。
臨床環境で特に有意義なCFの主な性質は、生理的妥当性、課題への関連性、スパース摂動である。
cf生成に関する過去の仕事はこれらの特性を満たしていない、具体的には、現実的な時系列cfは生成されない。
これらの特性をキャプチャする変分オートエンコーダ(vae)ベースのアプローチが提案されている。
本手法は, 従来の手法を定量的に改善するCF(Wr.tの原データ分布の確率で評価し, 100$\times$ CFの生成速度で評価し, 定性的に(2$\times$ より可塑性で関連性の高いCF)を生成する。
関連論文リスト
- Which Client is Reliable?: A Reliable and Personalized Prompt-based Federated Learning for Medical Image Question Answering [51.26412822853409]
本稿では,医学的視覚的質問応答(VQA)モデルのための,パーソナライズド・フェデレーションド・ラーニング(pFL)手法を提案する。
提案手法では,学習可能なプロンプトをTransformerアーキテクチャに導入し,膨大な計算コストを伴わずに,多様な医療データセット上で効率的にトレーニングする。
論文 参考訳(メタデータ) (2024-10-23T00:31:17Z) - Contrastive Learning with Counterfactual Explanations for Radiology Report Generation [83.30609465252441]
放射線学レポート生成のためのtextbfCountertextbfFactual textbfExplanations-based framework (CoFE) を提案する。
反現実的な説明は、アルゴリズムによってなされた決定をどのように変えられるかを理解するための強力なツールとして、シナリオが何であるかを問うことによって役立ちます。
2つのベンチマークの実験では、反ファクト的な説明を活用することで、CoFEは意味的に一貫性があり、事実的に完全なレポートを生成することができる。
論文 参考訳(メタデータ) (2024-07-19T17:24:25Z) - FedMedICL: Towards Holistic Evaluation of Distribution Shifts in Federated Medical Imaging [68.6715007665896]
FedMedICLは統合されたフレームワークであり、フェデレートされた医療画像の課題を全体評価するためのベンチマークである。
6種類の医用画像データセットについて,いくつかの一般的な手法を総合的に評価した。
単純なバッチ分散手法はFedMedICL実験全体の平均性能において,高度な手法を超越していることがわかった。
論文 参考訳(メタデータ) (2024-07-11T19:12:23Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Automated Medical Coding on MIMIC-III and MIMIC-IV: A Critical Review
and Replicability Study [60.56194508762205]
我々は、最先端の医療自動化機械学習モデルを再現し、比較し、分析する。
その結果, 弱い構成, サンプル化の不十分さ, 評価の不十分さなどにより, いくつかのモデルの性能が低下していることが判明した。
再生モデルを用いたMIMIC-IVデータセットの総合評価を行った。
論文 参考訳(メタデータ) (2023-04-21T11:54:44Z) - Assisting clinical practice with fuzzy probabilistic decision trees [2.0999441362198907]
本研究では,確率木とファジィ論理を組み合わせて臨床実習を支援する新しい手法であるFPTを提案する。
FPTとその予測は、この目的のために特別に設計されたユーザフレンドリーなインターフェースを用いて、直感的に臨床実践を支援することができることを示す。
論文 参考訳(メタデータ) (2023-04-16T14:05:16Z) - Iterative Partial Fulfillment of Counterfactual Explanations: Benefits
and Risks [2.7793394375935088]
ファクトファクト(CF)の説明は、高い領域で機械学習モデルを説明するのに人気がある。
CFの説明を受けると、被験者は新たな予測を下す前に部分的に満たすだけでよいことを示す。
数学的にIPFを定式化し、理論的にも経験的にも、異なるCFアルゴリズムがIPFの下で大きく異なる振る舞いを示すことを示す。
論文 参考訳(メタデータ) (2023-03-17T14:41:09Z) - Semi-Supervised Variational Reasoning for Medical Dialogue Generation [70.838542865384]
医療対話生成には,患者の状態と医師の行動の2つの重要な特徴がある。
医療対話生成のためのエンドツーエンドの変分推論手法を提案する。
行動分類器と2つの推論検出器から構成される医師政策ネットワークは、拡張推論能力のために提案される。
論文 参考訳(メタデータ) (2021-05-13T04:14:35Z) - Interpretable Deep Models for Cardiac Resynchronisation Therapy Response
Prediction [8.152884957975354]
可変オートエンコーダ(VAE)に基づく画像分類のための新しいフレームワークを提案する。
VAEは、既存の臨床知識から引き出された説明に基づいて潜伏空間を解体する。
心臓磁気共鳴画像による心臓再同期療法(CRT)に対する心筋症の反応予測の枠組みを実証した。
論文 参考訳(メタデータ) (2020-06-24T15:35:47Z) - An Adversarial Approach for the Robust Classification of Pneumonia from
Chest Radiographs [9.462808515258464]
ディープラーニングモデルは、しばしばデータセットシフトによるパフォーマンス損失を示す。
1つの病院システムからのデータを用いてトレーニングされたモデルは、同一病院のデータでテストすると高い予測性能を得るが、異なる病院システムでテストした場合は著しく悪化する。
我々は,共同創設者に依存しないより堅牢なモデルを学ぶことができる,逆最適化に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2020-01-13T03:49:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。