論文の概要: Expert Study on Interpretable Machine Learning Models with Missing Data
- arxiv url: http://arxiv.org/abs/2411.09591v1
- Date: Thu, 14 Nov 2024 17:02:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-15 15:24:00.099183
- Title: Expert Study on Interpretable Machine Learning Models with Missing Data
- Title(参考訳): 欠落データを用いた解釈可能な機械学習モデルに関する専門家研究
- Authors: Lena Stempfle, Arthur James, Julie Josse, Tobias Gauss, Fredrik D. Johansson,
- Abstract要約: Inherently Interpretable Machine Learning (IML)モデルは、臨床的意思決定に有用な洞察を提供するが、特徴が欠落している場合に課題に直面している。
フランス全国29のトラウマセンターから71名の臨床医を対象に,医療従事者とICMの相互作用について検討した。
- 参考スコア(独自算出の注目度): 10.637366819633302
- License:
- Abstract: Inherently interpretable machine learning (IML) models provide valuable insights for clinical decision-making but face challenges when features have missing values. Classical solutions like imputation or excluding incomplete records are often unsuitable in applications where values are missing at test time. In this work, we conducted a survey with 71 clinicians from 29 trauma centers across France, including 20 complete responses to study the interaction between medical professionals and IML applied to data with missing values. This provided valuable insights into how missing data is interpreted in clinical machine learning. We used the prediction of hemorrhagic shock as a concrete example to gauge the willingness and readiness of the participants to adopt IML models from three classes of methods. Our findings show that, while clinicians value interpretability and are familiar with common IML methods, classical imputation techniques often misalign with their intuition, and that models that natively handle missing values are preferred. These results emphasize the need to integrate clinical intuition into future IML models for better human-computer interaction.
- Abstract(参考訳): Inherently Interpretable Machine Learning (IML)モデルは、臨床的意思決定に有用な洞察を提供するが、特徴が欠落している場合に課題に直面している。
命令や不完全レコードの排除といった古典的な解決策は、テスト時に値が欠落しているアプリケーションでは不適当であることが多い。
本研究は、フランス全29の外傷センターから71名の臨床医を対象に、医療従事者とICMの相互作用を、欠落したデータに適用するための20の完全な回答を含む調査を行った。
これにより、臨床機械学習において欠落したデータがどのように解釈されるかについての貴重な洞察が得られた。
出血性ショックの予測を具体例として用いて,3種類の方法からIMLモデルを採用する参加者の意欲と準備性を評価した。
本研究は, 臨床医が解釈可能性を重視し, 一般的なIML法に精通しているにもかかわらず, 古典的計算法は直観に反することが多く, 自然に欠落した値を扱うモデルが好まれることを示した。
これらの結果は、人間とコンピュータの相互作用を改善するために、将来のMLモデルに臨床直観を統合する必要性を強調している。
関連論文リスト
- ALPEC: A Comprehensive Evaluation Framework and Dataset for Machine Learning-Based Arousal Detection in Clinical Practice [8.530898223158843]
本稿では,覚醒剤の局所化と正確な事象数(ALPEC)を重視した新しい後処理・評価フレームワークを提案する。
本論文と並行してデータセットを公開し,マルチモーダルデータを利用した覚醒的オンセット検出の利点を実証する。
論文 参考訳(メタデータ) (2024-09-20T10:03:37Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Mixed-Integer Projections for Automated Data Correction of EMRs Improve
Predictions of Sepsis among Hospitalized Patients [7.639610349097473]
本稿では,領域制約として臨床専門知識をシームレスに統合する革新的プロジェクションに基づく手法を提案する。
我々は、患者データの健全な範囲を規定する制約から補正されたデータの距離を測定する。
AUROCは0.865で、精度は0.922で、従来のMLモデルを上回る。
論文 参考訳(メタデータ) (2023-08-21T15:14:49Z) - TREEMENT: Interpretable Patient-Trial Matching via Personalized Dynamic
Tree-Based Memory Network [54.332862955411656]
臨床試験は薬物開発に不可欠であるが、しばしば高価で非効率な患者募集に苦しむ。
近年,患者と臨床試験を自動マッチングすることで患者採用を高速化する機械学習モデルが提案されている。
本稿では,TREement という名前の動的ツリーベースメモリネットワークモデルを導入する。
論文 参考訳(メタデータ) (2023-07-19T12:35:09Z) - Context-dependent Explainability and Contestability for Trustworthy
Medical Artificial Intelligence: Misclassification Identification of
Morbidity Recognition Models in Preterm Infants [0.0]
説明可能なAI(XAI)は、エンドユーザーをサポートするAI推論を明確にすることで、この要件に対処することを目指している。
提案手法は,3つの主要な柱上に構築され,臨床コンテキストの潜時空間を利用して特徴セットを分解し,世界的説明の臨床的関連性を評価するとともに,局所的説明に基づく潜時空間類似性(LSS)を考察した。
論文 参考訳(メタデータ) (2022-12-17T07:59:09Z) - Detecting Shortcut Learning for Fair Medical AI using Shortcut Testing [62.9062883851246]
機械学習は医療の改善に大いに貢献するが、その利用が健康格差を広めたり増幅したりしないことを確実にすることは重要である。
アルゴリズムの不公平性の潜在的な要因の1つ、ショートカット学習は、トレーニングデータにおける不適切な相関に基づいてMLモデルが予測した時に発生する。
マルチタスク学習を用いて,臨床MLシステムの公平性評価の一環として,ショートカット学習の評価と緩和を行う手法を提案する。
論文 参考訳(メタデータ) (2022-07-21T09:35:38Z) - Benchmarking Heterogeneous Treatment Effect Models through the Lens of
Interpretability [82.29775890542967]
治療のパーソナライズされた効果を見積もるのは複雑だが、普及している問題である。
ヘテロジニアス処理効果推定に関する機械学習文献の最近の進歩は、洗練されたが不透明なツールの多くを生み出した。
我々は、ポストホックな特徴重要度法を用いて、モデルの予測に影響を及ぼす特徴を特定する。
論文 参考訳(メタデータ) (2022-06-16T17:59:05Z) - Integrating Expert ODEs into Neural ODEs: Pharmacology and Disease
Progression [71.7560927415706]
潜在ハイブリッドモデル(LHM)は、専門家が設計したODEのシステムと機械学習したNeural ODEを統合し、システムのダイナミクスを完全に記述する。
新型コロナウイルス患者のLHMと実世界の集中治療データについて検討した。
論文 参考訳(メタデータ) (2021-06-05T11:42:45Z) - Performance metrics for intervention-triggering prediction models do not
reflect an expected reduction in outcomes from using the model [71.9860741092209]
臨床研究者はしばしばリスク予測モデルの中から選択し評価する。
振り返りデータから算出される標準メトリクスは、特定の仮定の下でのみモデルユーティリティに関係します。
予測が時間を通して繰り返し配信される場合、標準メトリクスとユーティリティの関係はさらに複雑になる。
論文 参考訳(メタデータ) (2020-06-02T16:26:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。