論文の概要: Evaluating Explanatory Capabilities of Machine Learning Models in Medical Diagnostics: A Human-in-the-Loop Approach
- arxiv url: http://arxiv.org/abs/2403.19820v1
- Date: Thu, 28 Mar 2024 20:11:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-01 17:13:56.537633
- Title: Evaluating Explanatory Capabilities of Machine Learning Models in Medical Diagnostics: A Human-in-the-Loop Approach
- Title(参考訳): 医学診断における機械学習モデルの説明能力の評価--人間とループのアプローチ
- Authors: José Bobes-Bascarán, Eduardo Mosqueira-Rey, Ángel Fernández-Leal, Elena Hernández-Pereira, David Alonso-Ríos, Vicente Moret-Bonillo, Israel Figueirido-Arnoso, Yolanda Vidal-Ínsua,
- Abstract要約: 我々は、膵癌治療の確立に関係するさまざまな特徴の重要性を確立するために、Human-in-the-Loop関連技術と医療ガイドラインをドメイン知識の源泉として使用しています。
本稿では,説明結果の解釈を容易にするため,重み付きジャカード類似度係数などの類似度尺度を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a comprehensive study on the evaluation of explanatory capabilities of machine learning models, with a focus on Decision Trees, Random Forest and XGBoost models using a pancreatic cancer dataset. We use Human-in-the-Loop related techniques and medical guidelines as a source of domain knowledge to establish the importance of the different features that are relevant to establish a pancreatic cancer treatment. These features are not only used as a dimensionality reduction approach for the machine learning models, but also as way to evaluate the explainability capabilities of the different models using agnostic and non-agnostic explainability techniques. To facilitate interpretation of explanatory results, we propose the use of similarity measures such as the Weighted Jaccard Similarity coefficient. The goal is to not only select the best performing model but also the one that can best explain its conclusions and aligns with human domain knowledge.
- Abstract(参考訳): 本稿では, 膵癌データセットを用いた決定木, ランダムフォレスト, およびXGBoostモデルに着目し, 機械学習モデルの説明能力の評価に関する総合的研究を行った。
我々は、膵癌治療の確立に関係するさまざまな特徴の重要性を確立するために、Human-in-the-Loop関連技術と医療ガイドラインをドメイン知識の源泉として使用しています。
これらの特徴は、機械学習モデルにおける次元削減アプローチとしてだけでなく、非依存的および非認識的説明可能性技術を用いて、異なるモデルの説明可能性能力を評価する手段としても用いられる。
本稿では,説明結果の解釈を容易にするために,重み付きジャカード類似度係数などの類似度尺度の利用を提案する。
目標は、最高のパフォーマンスモデルを選択するだけでなく、その結論を最もよく説明し、人間のドメイン知識と整合できるモデルを選択することです。
関連論文リスト
- Selecting Interpretability Techniques for Healthcare Machine Learning models [69.65384453064829]
医療では、いくつかの意思決定シナリオにおいて、医療専門家を支援するために解釈可能なアルゴリズムを採用することが追求されている。
本稿では, ポストホックとモデルベースという8つのアルゴリズムを概説する。
論文 参考訳(メタデータ) (2024-06-14T17:49:04Z) - Concept-based Explainable Malignancy Scoring on Pulmonary Nodules in CT Images [2.2120851074630177]
一般化加法モデルと概念ベース学習を適用した解釈可能なモデルを提案する。
本モデルは、最終回帰スコアに加えて臨床的に重要な属性のセットを検出し、肺結節属性と最終診断決定との関係を学習する。
論文 参考訳(メタデータ) (2024-05-24T13:36:44Z) - Decoding Decision Reasoning: A Counterfactual-Powered Model for Knowledge Discovery [6.1521675665532545]
医用画像では、AIモデルの予測の背後にある根拠を明らかにすることが、信頼性を評価する上で重要である。
本稿では,意思決定推論と特徴識別機能を備えた説明可能なモデルを提案する。
提案手法を実装することにより,データ駆動モデルにより活用されるクラス固有の特徴を効果的に識別および可視化することができる。
論文 参考訳(メタデータ) (2024-05-23T19:00:38Z) - Unified Uncertainty Estimation for Cognitive Diagnosis Models [70.46998436898205]
本稿では,幅広い認知診断モデルに対する統一的不確実性推定手法を提案する。
診断パラメータの不確かさをデータ・アスペクトとモデル・アスペクトに分解する。
本手法は有効であり,認知診断の不確実性に関する有用な知見を提供することができる。
論文 参考訳(メタデータ) (2024-03-09T13:48:20Z) - Interpretable Medical Image Classification using Prototype Learning and
Privileged Information [0.0]
解釈可能性はしばしば医療画像に必須の要件である。
本研究では,学習プロセスで利用可能な追加情報を用いて,理解しやすく強力なモデルを構築することができるかを検討する。
本稿では,カプセルネットワーク,プロトタイプ学習,特権情報の利用といったメリットを活用する,Proto-Capsと呼ばれる革新的なソリューションを提案する。
論文 参考訳(メタデータ) (2023-10-24T11:28:59Z) - Pixel-Level Explanation of Multiple Instance Learning Models in
Biomedical Single Cell Images [52.527733226555206]
複数のインスタンス学習モデルを説明するための4つの属性法について検討する。
急性骨髄性白血病の2つのデータセットと100万以上の単細胞画像について検討した。
我々は、属性マップと医療専門家の注釈を比較し、モデルの意思決定が人間の基準とどのように異なるかを確認する。
論文 参考訳(メタデータ) (2023-03-15T14:00:11Z) - Benchmarking Heterogeneous Treatment Effect Models through the Lens of
Interpretability [82.29775890542967]
治療のパーソナライズされた効果を見積もるのは複雑だが、普及している問題である。
ヘテロジニアス処理効果推定に関する機械学習文献の最近の進歩は、洗練されたが不透明なツールの多くを生み出した。
我々は、ポストホックな特徴重要度法を用いて、モデルの予測に影響を及ぼす特徴を特定する。
論文 参考訳(メタデータ) (2022-06-16T17:59:05Z) - Explanation of Machine Learning Models Using Shapley Additive
Explanation and Application for Real Data in Hospital [0.11470070927586014]
本稿では,機械学習モデルの解釈可能性向上のための2つの新しい手法を提案する。
本稿では,A/G比が脳梗塞の重要な予後因子であることを示す。
論文 参考訳(メタデータ) (2021-12-21T10:08:31Z) - A multi-stage machine learning model on diagnosis of esophageal
manometry [50.591267188664666]
このフレームワークには、飲み込みレベルにおけるディープラーニングモデルと、学習レベルにおける機能ベースの機械学習モデルが含まれている。
これは、生のマルチスワローデータからHRM研究のCC診断を自動的に予測する最初の人工知能モデルである。
論文 参考訳(メタデータ) (2021-06-25T20:09:23Z) - A Diagnostic Study of Explainability Techniques for Text Classification [52.879658637466605]
既存の説明可能性技術を評価するための診断特性のリストを作成する。
そこで本研究では, モデルの性能と有理性との整合性の関係を明らかにするために, 説明可能性手法によって割り当てられた有理性スコアと有理性入力領域の人間のアノテーションを比較した。
論文 参考訳(メタデータ) (2020-09-25T12:01:53Z) - Statistical Exploration of Relationships Between Routine and Agnostic
Features Towards Interpretable Risk Characterization [0.0]
臨床的実装のための予後モデルをどのように解釈するか?
放射能特徴集合内の潜在的な情報構造をどうやって特定できるのか?
そして、どのようにして機能間の潜在的な関係を再結合または活用して、解釈可能性を改善することができるのか?
論文 参考訳(メタデータ) (2020-01-28T14:27:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。