論文の概要: Faithful and Plausible Explanations of Medical Code Predictions
- arxiv url: http://arxiv.org/abs/2104.07894v1
- Date: Fri, 16 Apr 2021 05:13:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 02:12:22.022077
- Title: Faithful and Plausible Explanations of Medical Code Predictions
- Title(参考訳): 医療コード予測の忠実かつ確実な説明
- Authors: Zach Wood-Doughty, Isabel Cachola, and Mark Dredze
- Abstract要約: 説明は、モデルの意思決定に対する忠実さと、ドメインの専門家への妥当性のバランスをとらなければならない。
トレーニングされたモデルの振る舞いを模倣し、これらのトレードオフをきめ細かく制御するプロキシモデルをトレーニングします。
我々は,icdコードを臨床ノートに割り当てる作業に対するアプローチを評価し,プロキシモデルからの説明が忠実で,訓練されたモデルの振る舞いを再現できることを示す。
- 参考スコア(独自算出の注目度): 12.156363504753244
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning models that offer excellent predictive performance often
lack the interpretability necessary to support integrated human machine
decision-making. In clinical medicine and other high-risk settings, domain
experts may be unwilling to trust model predictions without explanations. Work
in explainable AI must balance competing objectives along two different axes:
1) Explanations must balance faithfulness to the model's decision-making with
their plausibility to a domain expert. 2) Domain experts desire local
explanations of individual predictions and global explanations of behavior in
aggregate. We propose to train a proxy model that mimics the behavior of the
trained model and provides fine-grained control over these trade-offs. We
evaluate our approach on the task of assigning ICD codes to clinical notes to
demonstrate that explanations from the proxy model are faithful and replicate
the trained model behavior.
- Abstract(参考訳): 優れた予測性能を提供する機械学習モデルは、統合されたマシン意思決定をサポートするために必要な解釈性に欠けることが多い。
臨床医学やその他のリスクの高い環境では、ドメインの専門家は説明なしでモデル予測を信頼したくないかもしれません。
1) 説明はモデルの意思決定に対する忠実さと、ドメインの専門家への可能性とをバランスさせなければなりません。
2)各分野の専門家は、個別予測の地域的説明と総合的な行動のグローバル的説明を求める。
我々は、訓練されたモデルの振る舞いを模倣し、これらのトレードオフをきめ細かく制御するプロキシモデルを訓練することを提案する。
我々は,icdコードを臨床ノートに割り当てる作業に対するアプローチを評価し,プロキシモデルからの説明が忠実で,訓練されたモデルの振る舞いを再現できることを示す。
関連論文リスト
- Human Trajectory Forecasting with Explainable Behavioral Uncertainty [63.62824628085961]
人間の軌道予測は人間の行動を理解し予測し、社会ロボットから自動運転車への応用を可能にする。
モデルフリー手法は予測精度が優れているが説明可能性に欠ける一方、モデルベース手法は説明可能性を提供するが、よく予測できない。
BNSP-SFMは,11種類の最先端手法と比較して,予測精度を最大50%向上することを示す。
論文 参考訳(メタデータ) (2023-07-04T16:45:21Z) - Clinical outcome prediction under hypothetical interventions -- a
representation learning framework for counterfactual reasoning [31.97813934144506]
本稿では,リスクモデルの組込み特性として,対実的説明の提供を考慮した新しい表現学習フレームワークを提案する。
提案する枠組みは, 研究者や臨床医がパーソナライズされたケアを改善するのに役立つ可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-15T09:41:16Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z) - Test-time Collective Prediction [73.74982509510961]
マシンラーニングの複数のパーティは、将来のテストポイントを共同で予測したいと考えています。
エージェントは、すべてのエージェントの集合の集合的な専門知識の恩恵を受けることを望んでいるが、データやモデルパラメータを解放する意思はないかもしれない。
我々は、各エージェントの事前学習モデルを利用して、テスト時に集合的な予測を行う分散型メカニズムを探索する。
論文 参考訳(メタデータ) (2021-06-22T18:29:58Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Learning to Predict with Supporting Evidence: Applications to Clinical
Risk Prediction [9.199022926064009]
機械学習モデルがヘルスケアに与える影響は、医療専門家がこれらのモデルによって予測される信頼度に依存する。
予測が信頼されるべき理由に関するドメイン関連証拠を,臨床専門性のある人に提供するための方法を提示する。
論文 参考訳(メタデータ) (2021-03-04T00:26:32Z) - (Un)fairness in Post-operative Complication Prediction Models [20.16366948502659]
手術前のリスク推定の実例を考察し,様々なアルゴリズムの偏見や不公平性について検討する。
当社のアプローチでは,潜在的なバイアスに関する透過的なドキュメントを作成して,ユーザが慎重にモデルを適用できるようにしています。
論文 参考訳(メタデータ) (2020-11-03T22:11:19Z) - Double Robust Representation Learning for Counterfactual Prediction [68.78210173955001]
そこで本稿では, 対実予測のための2次ロバスト表現を学習するための, スケーラブルな新しい手法を提案する。
我々は、個々の治療効果と平均的な治療効果の両方に対して、堅牢で効率的な対実的予測を行う。
このアルゴリズムは,実世界の最先端技術と合成データとの競合性能を示す。
論文 参考訳(メタデータ) (2020-10-15T16:39:26Z) - Are Visual Explanations Useful? A Case Study in Model-in-the-Loop
Prediction [49.254162397086006]
画像に基づく年齢予測課題における視覚的満足度に基づく説明について検討する。
モデル予測の提示により,人間の精度が向上することが判明した。
しかし、様々な種類の説明は、人間の正確さやモデルの信頼を著しく変えることができない。
論文 参考訳(メタデータ) (2020-07-23T20:39:40Z) - Calibrating Healthcare AI: Towards Reliable and Interpretable Deep
Predictive Models [41.58945927669956]
これらの2つの目的は必ずしも相違するものではなく、予測キャリブレーションを利用して両方の目的を満たすことを提案する。
本手法はキャリブレーション駆動型学習法により構成され, 対実的推論に基づく解釈可能性手法の設計にも用いられている。
論文 参考訳(メタデータ) (2020-04-27T22:15:17Z) - Interpretability of machine learning based prediction models in
healthcare [8.799886951659627]
本稿では,医療分野における機械学習の実践的解釈可能性について概説する。
我々は、高度な医療問題において機械学習による意思決定を可能にするアルゴリズムソリューションの開発の重要性を強調した。
論文 参考訳(メタデータ) (2020-02-20T07:23:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。