論文の概要: Calibrating Healthcare AI: Towards Reliable and Interpretable Deep
Predictive Models
- arxiv url: http://arxiv.org/abs/2004.14480v1
- Date: Mon, 27 Apr 2020 22:15:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 04:47:12.232614
- Title: Calibrating Healthcare AI: Towards Reliable and Interpretable Deep
Predictive Models
- Title(参考訳): 医療AIの校正 - 信頼性と解釈可能な深層予測モデルを目指して
- Authors: Jayaraman J. Thiagarajan, Prasanna Sattigeri, Deepta Rajan and Bindya
Venkatesh
- Abstract要約: これらの2つの目的は必ずしも相違するものではなく、予測キャリブレーションを利用して両方の目的を満たすことを提案する。
本手法はキャリブレーション駆動型学習法により構成され, 対実的推論に基づく解釈可能性手法の設計にも用いられている。
- 参考スコア(独自算出の注目度): 41.58945927669956
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The wide-spread adoption of representation learning technologies in clinical
decision making strongly emphasizes the need for characterizing model
reliability and enabling rigorous introspection of model behavior. While the
former need is often addressed by incorporating uncertainty quantification
strategies, the latter challenge is addressed using a broad class of
interpretability techniques. In this paper, we argue that these two objectives
are not necessarily disparate and propose to utilize prediction calibration to
meet both objectives. More specifically, our approach is comprised of a
calibration-driven learning method, which is also used to design an
interpretability technique based on counterfactual reasoning. Furthermore, we
introduce \textit{reliability plots}, a holistic evaluation mechanism for model
reliability. Using a lesion classification problem with dermoscopy images, we
demonstrate the effectiveness of our approach and infer interesting insights
about the model behavior.
- Abstract(参考訳): 臨床意思決定における表現学習技術の広範採用は、モデルの信頼性を特徴づける必要性を強調し、厳密なモデル行動検査を可能にする。
前者のニーズはしばしば不確実な定量化戦略を取り入れることで対処されるが、後者の課題は幅広い解釈可能性技術を用いて対処される。
本稿では,これら2つの目的が必ずしも不一致ではないことを議論し,両目的を満たすための予測校正の活用を提案する。
より具体的には、このアプローチは校正駆動学習法で構成されており、これは反事実推論に基づく解釈可能性技法を設計するためにも用いられる。
さらに,モデル信頼性の総合評価機構である「textit{reliability plots」を導入する。
皮膚内視鏡画像を用いた病変分類問題を用いて,本手法の有効性を示し,モデル行動に関する興味深い知見を推察する。
関連論文リスト
- Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Deep Generative Models for Decision-Making and Control [4.238809918521607]
この論文の2つの目的は、これらの欠点の理由を研究し、未解決問題に対する解決策を提案することである。
本稿では、ビームサーチを含む現代の生成モデリングツールボックスからの推論手法を、強化学習問題のための実行可能な計画戦略として再解釈する方法について述べる。
論文 参考訳(メタデータ) (2023-06-15T01:54:30Z) - Causal Analysis for Robust Interpretability of Neural Networks [0.2519906683279152]
我々は、事前学習されたニューラルネットワークの因果効果を捉えるための頑健な介入に基づく手法を開発した。
分類タスクで訓練された視覚モデルに本手法を適用した。
論文 参考訳(メタデータ) (2023-05-15T18:37:24Z) - Two-step interpretable modeling of Intensive Care Acquired Infections [0.0]
本稿では,高解像度長手データと生存モデルの動的予測機能を統合するための新しい手法を提案する。
モデルの解釈可能性を維持しながら予測力を向上すること。
論文 参考訳(メタデータ) (2023-01-26T14:54:17Z) - Benchmarking Heterogeneous Treatment Effect Models through the Lens of
Interpretability [82.29775890542967]
治療のパーソナライズされた効果を見積もるのは複雑だが、普及している問題である。
ヘテロジニアス処理効果推定に関する機械学習文献の最近の進歩は、洗練されたが不透明なツールの多くを生み出した。
我々は、ポストホックな特徴重要度法を用いて、モデルの予測に影響を及ぼす特徴を特定する。
論文 参考訳(メタデータ) (2022-06-16T17:59:05Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Predictive machine learning for prescriptive applications: a coupled
training-validating approach [77.34726150561087]
規範的応用のための予測機械学習モデルをトレーニングするための新しい手法を提案する。
このアプローチは、標準的なトレーニング検証テストスキームの検証ステップを微調整することに基づいている。
合成データを用いたいくつかの実験は、決定論的モデルと実モデルの両方において処方料コストを削減できる有望な結果を示した。
論文 参考訳(メタデータ) (2021-10-22T15:03:20Z) - Quantifying Explainability in NLP and Analyzing Algorithms for
Performance-Explainability Tradeoff [0.0]
臨床テキスト分類におけるケーススタディにおける説明可能性と解釈可能性の現状について考察する。
完全解釈可能な手法とモデルに依存しないポストホック属性に対する様々な可視化手法を実証する。
我々は,モデルの予測性能と利用可能な説明の質との間のフロンティアを,実践者や研究者が評価できる枠組みを導入する。
論文 参考訳(メタデータ) (2021-07-12T19:07:24Z) - (Un)fairness in Post-operative Complication Prediction Models [20.16366948502659]
手術前のリスク推定の実例を考察し,様々なアルゴリズムの偏見や不公平性について検討する。
当社のアプローチでは,潜在的なバイアスに関する透過的なドキュメントを作成して,ユーザが慎重にモデルを適用できるようにしています。
論文 参考訳(メタデータ) (2020-11-03T22:11:19Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。