論文の概要: Calibrating Healthcare AI: Towards Reliable and Interpretable Deep
Predictive Models
- arxiv url: http://arxiv.org/abs/2004.14480v1
- Date: Mon, 27 Apr 2020 22:15:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 04:47:12.232614
- Title: Calibrating Healthcare AI: Towards Reliable and Interpretable Deep
Predictive Models
- Title(参考訳): 医療AIの校正 - 信頼性と解釈可能な深層予測モデルを目指して
- Authors: Jayaraman J. Thiagarajan, Prasanna Sattigeri, Deepta Rajan and Bindya
Venkatesh
- Abstract要約: これらの2つの目的は必ずしも相違するものではなく、予測キャリブレーションを利用して両方の目的を満たすことを提案する。
本手法はキャリブレーション駆動型学習法により構成され, 対実的推論に基づく解釈可能性手法の設計にも用いられている。
- 参考スコア(独自算出の注目度): 41.58945927669956
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The wide-spread adoption of representation learning technologies in clinical
decision making strongly emphasizes the need for characterizing model
reliability and enabling rigorous introspection of model behavior. While the
former need is often addressed by incorporating uncertainty quantification
strategies, the latter challenge is addressed using a broad class of
interpretability techniques. In this paper, we argue that these two objectives
are not necessarily disparate and propose to utilize prediction calibration to
meet both objectives. More specifically, our approach is comprised of a
calibration-driven learning method, which is also used to design an
interpretability technique based on counterfactual reasoning. Furthermore, we
introduce \textit{reliability plots}, a holistic evaluation mechanism for model
reliability. Using a lesion classification problem with dermoscopy images, we
demonstrate the effectiveness of our approach and infer interesting insights
about the model behavior.
- Abstract(参考訳): 臨床意思決定における表現学習技術の広範採用は、モデルの信頼性を特徴づける必要性を強調し、厳密なモデル行動検査を可能にする。
前者のニーズはしばしば不確実な定量化戦略を取り入れることで対処されるが、後者の課題は幅広い解釈可能性技術を用いて対処される。
本稿では,これら2つの目的が必ずしも不一致ではないことを議論し,両目的を満たすための予測校正の活用を提案する。
より具体的には、このアプローチは校正駆動学習法で構成されており、これは反事実推論に基づく解釈可能性技法を設計するためにも用いられる。
さらに,モデル信頼性の総合評価機構である「textit{reliability plots」を導入する。
皮膚内視鏡画像を用いた病変分類問題を用いて,本手法の有効性を示し,モデル行動に関する興味深い知見を推察する。
関連論文リスト
- Towards Unifying Interpretability and Control: Evaluation via Intervention [25.4582941170387]
本稿では,解釈可能性の基本的な目標として介入を提案し,手法が介入を通してモデル動作をいかにうまく制御できるかを評価するために成功基準を導入する。
我々は4つの一般的な解釈可能性手法(オートエンコーダ、ロジットレンズ、チューニングレンズ、探索)を抽象エンコーダデコーダフレームワークに拡張する。
本稿では,介入成功率とコヒーレンス・インターベンショントレードオフの2つの新しい評価指標を紹介する。
論文 参考訳(メタデータ) (2024-11-07T04:52:18Z) - Unsupervised Model Diagnosis [49.36194740479798]
本稿では,ユーザガイドを使わずに,意味論的対実的説明を生成するために,Unsupervised Model Diagnosis (UMO)を提案する。
提案手法は意味論における変化を特定し可視化し,その変化を広範囲なテキストソースの属性と照合する。
論文 参考訳(メタデータ) (2024-10-08T17:59:03Z) - Decoding Decision Reasoning: A Counterfactual-Powered Model for Knowledge Discovery [6.1521675665532545]
医用画像では、AIモデルの予測の背後にある根拠を明らかにすることが、信頼性を評価する上で重要である。
本稿では,意思決定推論と特徴識別機能を備えた説明可能なモデルを提案する。
提案手法を実装することにより,データ駆動モデルにより活用されるクラス固有の特徴を効果的に識別および可視化することができる。
論文 参考訳(メタデータ) (2024-05-23T19:00:38Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Deep Generative Models for Decision-Making and Control [4.238809918521607]
この論文の2つの目的は、これらの欠点の理由を研究し、未解決問題に対する解決策を提案することである。
本稿では、ビームサーチを含む現代の生成モデリングツールボックスからの推論手法を、強化学習問題のための実行可能な計画戦略として再解釈する方法について述べる。
論文 参考訳(メタデータ) (2023-06-15T01:54:30Z) - Two-step interpretable modeling of Intensive Care Acquired Infections [0.0]
本稿では,高解像度長手データと生存モデルの動的予測機能を統合するための新しい手法を提案する。
モデルの解釈可能性を維持しながら予測力を向上すること。
論文 参考訳(メタデータ) (2023-01-26T14:54:17Z) - Benchmarking Heterogeneous Treatment Effect Models through the Lens of
Interpretability [82.29775890542967]
治療のパーソナライズされた効果を見積もるのは複雑だが、普及している問題である。
ヘテロジニアス処理効果推定に関する機械学習文献の最近の進歩は、洗練されたが不透明なツールの多くを生み出した。
我々は、ポストホックな特徴重要度法を用いて、モデルの予測に影響を及ぼす特徴を特定する。
論文 参考訳(メタデータ) (2022-06-16T17:59:05Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - (Un)fairness in Post-operative Complication Prediction Models [20.16366948502659]
手術前のリスク推定の実例を考察し,様々なアルゴリズムの偏見や不公平性について検討する。
当社のアプローチでは,潜在的なバイアスに関する透過的なドキュメントを作成して,ユーザが慎重にモデルを適用できるようにしています。
論文 参考訳(メタデータ) (2020-11-03T22:11:19Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。