論文の概要: Interpretable Machine Learning Classifiers for Brain Tumour Survival
Prediction
- arxiv url: http://arxiv.org/abs/2106.09424v1
- Date: Thu, 17 Jun 2021 12:17:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-18 16:09:11.644054
- Title: Interpretable Machine Learning Classifiers for Brain Tumour Survival
Prediction
- Title(参考訳): 脳腫瘍生存予測のための解釈可能な機械学習分類器
- Authors: Colleen E. Charlton and Michael Tin Chung Poon and Paul M. Brennan and
Jacques D. Fleuriot
- Abstract要約: 我々は、新しい脳腫瘍データセットを用いて、2つの解釈可能なルールリストモデルを、脳腫瘍生存予測のための一般的な機械学習アプローチと比較する。
ルールリストアルゴリズムが臨床専門知識と整合した単純な意思決定リストを作成したことを実証する。
- 参考スコア(独自算出の注目度): 0.45880283710344055
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prediction of survival in patients diagnosed with a brain tumour is
challenging because of heterogeneous tumour behaviours and responses to
treatment. Better estimations of prognosis would support treatment planning and
patient support. Advances in machine learning have informed development of
clinical predictive models, but their integration into clinical practice is
almost non-existent. One reasons for this is the lack of interpretability of
models. In this paper, we use a novel brain tumour dataset to compare two
interpretable rule list models against popular machine learning approaches for
brain tumour survival prediction. All models are quantitatively evaluated using
standard performance metrics. The rule lists are also qualitatively assessed
for their interpretability and clinical utility. The interpretability of the
black box machine learning models is evaluated using two post-hoc explanation
techniques, LIME and SHAP. Our results show that the rule lists were only
slightly outperformed by the black box models. We demonstrate that rule list
algorithms produced simple decision lists that align with clinical expertise.
By comparison, post-hoc interpretability methods applied to black box models
may produce unreliable explanations of local model predictions. Model
interpretability is essential for understanding differences in predictive
performance and for integration into clinical practice.
- Abstract(参考訳): 脳腫瘍と診断された患者の生存予測は、異種腫瘍の挙動と治療に対する反応により困難である。
予後のより良い推定は、治療計画と患者支援をサポートする。
機械学習の進歩は、臨床予測モデルの発達を知らせてきたが、臨床への統合はほとんど存在しない。
この理由の1つは、モデルの解釈可能性の欠如である。
本稿では,脳腫瘍生存予測のために,新しい脳腫瘍データセットを用いて2つの解釈可能なルールリストモデルを比較した。
すべてのモデルは標準性能指標を用いて定量的に評価される。
ルールリストは、解釈可能性と臨床的有用性についても質的に評価される。
ブラックボックス機械学習モデルの解釈性は、LIMEとSHAPの2つのポストホックな説明手法を用いて評価する。
その結果,ブラックボックスモデルではルールリストがわずかに上回っていたことが判明した。
ルールリストアルゴリズムが、臨床専門知識に合わせた単純な決定リストを作成したことを実証する。
比較して、ブラックボックスモデルに適用されたポストホック解釈可能性法は、局所モデル予測の信頼性の低い説明を生み出す可能性がある。
モデル解釈可能性は、予測性能の違いを理解し、臨床実践への統合に不可欠である。
関連論文リスト
- Predictive Modeling for Breast Cancer Classification in the Context of Bangladeshi Patients: A Supervised Machine Learning Approach with Explainable AI [0.0]
5種類の機械学習手法の分類精度,精度,リコール,F-1スコアを評価し,比較した。
XGBoostは97%という最高のモデル精度を達成した。
論文 参考訳(メタデータ) (2024-04-06T17:23:21Z) - Evaluating Explanatory Capabilities of Machine Learning Models in Medical Diagnostics: A Human-in-the-Loop Approach [0.0]
我々は、膵癌治療の確立に関係するさまざまな特徴の重要性を確立するために、Human-in-the-Loop関連技術と医療ガイドラインをドメイン知識の源泉として使用しています。
本稿では,説明結果の解釈を容易にするため,重み付きジャカード類似度係数などの類似度尺度を提案する。
論文 参考訳(メタデータ) (2024-03-28T20:11:34Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - This Patient Looks Like That Patient: Prototypical Networks for
Interpretable Diagnosis Prediction from Clinical Text [56.32427751440426]
臨床実践においては、そのようなモデルは正確であるだけでなく、医師に解釈可能で有益な結果を与える必要がある。
本稿では,プロトタイプネットワークに基づく新しい手法であるProtoPatientを紹介する。
利用可能な2つの臨床データセット上でモデルを評価し、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-16T10:12:07Z) - Benchmarking Heterogeneous Treatment Effect Models through the Lens of
Interpretability [82.29775890542967]
治療のパーソナライズされた効果を見積もるのは複雑だが、普及している問題である。
ヘテロジニアス処理効果推定に関する機械学習文献の最近の進歩は、洗練されたが不透明なツールの多くを生み出した。
我々は、ポストホックな特徴重要度法を用いて、モデルの予測に影響を及ぼす特徴を特定する。
論文 参考訳(メタデータ) (2022-06-16T17:59:05Z) - BI-RADS-Net: An Explainable Multitask Learning Approach for Cancer
Diagnosis in Breast Ultrasound Images [69.41441138140895]
本稿では,乳房超音波画像における癌検出のための新しい深層学習手法であるBI-RADS-Netを紹介する。
提案手法は, 臨床診断に関連する特徴表現を学習することにより, 乳腺腫瘍の説明と分類を行うタスクを取り入れたものである。
臨床医が医療現場で診断・報告するために使用する形態学的特徴の観点から予測(良性または悪性)の説明が提供される。
論文 参考訳(メタデータ) (2021-10-05T19:14:46Z) - Global and Local Interpretation of black-box Machine Learning models to
determine prognostic factors from early COVID-19 data [0.0]
新型コロナウイルスの血液検査データを、一般的な機械学習モデルを用いて分析する。
我々は,現在最先端の局所的解釈可能性技術とシンボリックメタモデリングを用いて,解釈可能な結論を導出する。
我々は、新型コロナウイルスの機械学習モデルの数学的表現を見つけるために、象徴的メタモデリングと呼ばれる最新の手法の1つを探求する。
論文 参考訳(メタデータ) (2021-09-10T20:00:47Z) - A multi-stage machine learning model on diagnosis of esophageal
manometry [50.591267188664666]
このフレームワークには、飲み込みレベルにおけるディープラーニングモデルと、学習レベルにおける機能ベースの機械学習モデルが含まれている。
これは、生のマルチスワローデータからHRM研究のCC診断を自動的に予測する最初の人工知能モデルである。
論文 参考訳(メタデータ) (2021-06-25T20:09:23Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Patient-independent Epileptic Seizure Prediction using Deep Learning
Models [39.19336481493405]
発作予知システムの目的は、発作が起こる前に起こる前頭前脳のステージを正常に識別することである。
患者に依存しない発作予測モデルは、データセット内の複数の被験者に正確なパフォーマンスを提供するように設計されている。
患者に依存しない2つの深層学習アーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-11-18T23:13:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。