論文の概要: Interpretability of machine learning based prediction models in
healthcare
- arxiv url: http://arxiv.org/abs/2002.08596v2
- Date: Fri, 14 Aug 2020 06:36:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 06:40:54.947445
- Title: Interpretability of machine learning based prediction models in
healthcare
- Title(参考訳): 医療における機械学習に基づく予測モデルの解釈可能性
- Authors: Gregor Stiglic, Primoz Kocbek, Nino Fijacko, Marinka Zitnik, Katrien
Verbert, Leona Cilar
- Abstract要約: 本稿では,医療分野における機械学習の実践的解釈可能性について概説する。
我々は、高度な医療問題において機械学習による意思決定を可能にするアルゴリズムソリューションの開発の重要性を強調した。
- 参考スコア(独自算出の注目度): 8.799886951659627
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There is a need of ensuring machine learning models that are interpretable.
Higher interpretability of the model means easier comprehension and explanation
of future predictions for end-users. Further, interpretable machine learning
models allow healthcare experts to make reasonable and data-driven decisions to
provide personalized decisions that can ultimately lead to higher quality of
service in healthcare. Generally, we can classify interpretability approaches
in two groups where the first focuses on personalized interpretation (local
interpretability) while the second summarizes prediction models on a population
level (global interpretability). Alternatively, we can group interpretability
methods into model-specific techniques, which are designed to interpret
predictions generated by a specific model, such as a neural network, and
model-agnostic approaches, which provide easy-to-understand explanations of
predictions made by any machine learning model. Here, we give an overview of
interpretability approaches and provide examples of practical interpretability
of machine learning in different areas of healthcare, including prediction of
health-related outcomes, optimizing treatments or improving the efficiency of
screening for specific conditions. Further, we outline future directions for
interpretable machine learning and highlight the importance of developing
algorithmic solutions that can enable machine-learning driven decision making
in high-stakes healthcare problems.
- Abstract(参考訳): 解釈可能な機械学習モデルを確実にする必要がある。
モデルの解釈性が高ければ、エンドユーザの将来予測の理解と説明が容易になる。
さらに、解釈可能な機械学習モデルにより、医療専門家は合理的でデータ駆動的な意思決定を行い、最終的に医療におけるサービス品質の向上につながるパーソナライズされた決定を提供することができる。
一般に、2つのグループに分類でき、1つはパーソナライズされた解釈(ローカルな解釈可能性)、もう1つは人口レベルで予測モデルをまとめる(グローバル解釈可能性)。
あるいは、ニューラルネットのような特定のモデルによって生成された予測を解釈するために設計されたモデル固有の手法と、任意の機械学習モデルによって作成された予測の理解しやすい説明を提供するモデル非依存なアプローチに分類することができる。
本稿では,その解釈可能性のアプローチの概要を述べるとともに,健康関連成果の予測,治療の最適化,特定の状況に対するスクリーニングの効率向上など,医療分野における機械学習の実践的解釈可能性の例を示す。
さらに,解釈可能な機械学習の今後の方向性を概説するとともに,機械学習による意思決定を可能にするアルゴリズムソリューションの開発の重要性を強調した。
関連論文リスト
- Selecting Interpretability Techniques for Healthcare Machine Learning models [69.65384453064829]
医療では、いくつかの意思決定シナリオにおいて、医療専門家を支援するために解釈可能なアルゴリズムを採用することが追求されている。
本稿では, ポストホックとモデルベースという8つのアルゴリズムを概説する。
論文 参考訳(メタデータ) (2024-06-14T17:49:04Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Predictability and Comprehensibility in Post-Hoc XAI Methods: A
User-Centered Analysis [6.606409729669314]
ポストホック説明可能性法は、ブラックボックス機械学習モデルの予測を明らかにすることを目的としている。
我々は、LIMEとSHAPの2つの広く使われているツールにおいて、理解性と予測可能性を評価するために、ユーザスタディを実施している。
モデル決定境界付近のサンプルに対して説明を行うと,SHAPの理解度が大幅に低下することがわかった。
論文 参考訳(メタデータ) (2023-09-21T11:54:20Z) - Ecosystem-level Analysis of Deployed Machine Learning Reveals Homogeneous Outcomes [72.13373216644021]
本研究では,機械学習の社会的影響を,特定の文脈に展開されるモデルの集合を考慮し検討する。
デプロイされた機械学習はシステム障害を起こしやすいため、利用可能なすべてのモデルに排他的に誤分類されているユーザもいます。
これらの例は、エコシステムレベルの分析が、機械学習の社会的影響を特徴づける独自の強みを持っていることを示している。
論文 参考訳(メタデータ) (2023-07-12T01:11:52Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Safe AI for health and beyond -- Monitoring to transform a health
service [51.8524501805308]
機械学習アルゴリズムの出力を監視するために必要なインフラストラクチャを評価する。
モデルのモニタリングと更新の例を示す2つのシナリオを提示します。
論文 参考訳(メタデータ) (2023-03-02T17:27:45Z) - Clinical outcome prediction under hypothetical interventions -- a
representation learning framework for counterfactual reasoning [31.97813934144506]
本稿では,リスクモデルの組込み特性として,対実的説明の提供を考慮した新しい表現学習フレームワークを提案する。
提案する枠組みは, 研究者や臨床医がパーソナライズされたケアを改善するのに役立つ可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-15T09:41:16Z) - Explainable AI Enabled Inspection of Business Process Prediction Models [2.5229940062544496]
本稿では,モデル説明を用いて,機械学習の予測によって適用された推論を解析する手法を提案する。
本手法の新たな貢献は,解釈可能な機械学習機構によって生成された説明と,過去のプロセス実行を記録するイベントログから抽出された文脈的,あるいはドメイン的知識の両方を活用するモデル検査の提案である。
論文 参考訳(メタデータ) (2021-07-16T06:51:18Z) - Faithful and Plausible Explanations of Medical Code Predictions [12.156363504753244]
説明は、モデルの意思決定に対する忠実さと、ドメインの専門家への妥当性のバランスをとらなければならない。
トレーニングされたモデルの振る舞いを模倣し、これらのトレードオフをきめ細かく制御するプロキシモデルをトレーニングします。
我々は,icdコードを臨床ノートに割り当てる作業に対するアプローチを評価し,プロキシモデルからの説明が忠実で,訓練されたモデルの振る舞いを再現できることを示す。
論文 参考訳(メタデータ) (2021-04-16T05:13:36Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。