論文の概要: Explanation of Machine Learning Models Using Shapley Additive
Explanation and Application for Real Data in Hospital
- arxiv url: http://arxiv.org/abs/2112.11071v1
- Date: Tue, 21 Dec 2021 10:08:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-22 14:25:18.950614
- Title: Explanation of Machine Learning Models Using Shapley Additive
Explanation and Application for Real Data in Hospital
- Title(参考訳): Shapley Additive Explanationを用いた機械学習モデルの解説と病院における実データへの適用
- Authors: Yasunobu Nohara, Koutarou Matsumoto, Hidehisa Soejima and Naoki
Nakashima
- Abstract要約: 本稿では,機械学習モデルの解釈可能性向上のための2つの新しい手法を提案する。
本稿では,A/G比が脳梗塞の重要な予後因子であることを示す。
- 参考スコア(独自算出の注目度): 0.11470070927586014
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When using machine learning techniques in decision-making processes, the
interpretability of the models is important. In the present paper, we adopted
the Shapley additive explanation (SHAP), which is based on fair profit
allocation among many stakeholders depending on their contribution, for
interpreting a gradient-boosting decision tree model using hospital data. For
better interpretability, we propose two novel techniques as follows: (1) a new
metric of feature importance using SHAP and (2) a technique termed feature
packing, which packs multiple similar features into one grouped feature to
allow an easier understanding of the model without reconstruction of the model.
We then compared the explanation results between the SHAP framework and
existing methods. In addition, we showed how the A/G ratio works as an
important prognostic factor for cerebral infarction using our hospital data and
proposed techniques.
- Abstract(参考訳): 意思決定プロセスで機械学習技術を使用する場合、モデルの解釈性が重要である。
本稿では,病院データを用いた勾配決定木モデルの解釈のために,多くの利害関係者の公正な利益配分に基づくShapley additive explanation (SHAP)を採用した。
そこで本研究では,(1)shapを用いた新しい特徴量測定法,(2)複数の類似特徴を1つのグループ化特徴にまとめ,モデルの再構築を伴わずにモデルの理解を容易にする技術,という2つの新しい手法を提案する。
次に、shapフレームワークと既存のメソッドの説明結果を比較した。
また,a/g比が脳梗塞の重要な予後因子としてどのように機能するかを病院データと提案手法を用いて明らかにした。
関連論文リスト
- Selecting Interpretability Techniques for Healthcare Machine Learning models [69.65384453064829]
医療では、いくつかの意思決定シナリオにおいて、医療専門家を支援するために解釈可能なアルゴリズムを採用することが追求されている。
本稿では, ポストホックとモデルベースという8つのアルゴリズムを概説する。
論文 参考訳(メタデータ) (2024-06-14T17:49:04Z) - Evaluating Explanatory Capabilities of Machine Learning Models in Medical Diagnostics: A Human-in-the-Loop Approach [0.0]
我々は、膵癌治療の確立に関係するさまざまな特徴の重要性を確立するために、Human-in-the-Loop関連技術と医療ガイドラインをドメイン知識の源泉として使用しています。
本稿では,説明結果の解釈を容易にするため,重み付きジャカード類似度係数などの類似度尺度を提案する。
論文 参考訳(メタデータ) (2024-03-28T20:11:34Z) - A Perspective on Explainable Artificial Intelligence Methods: SHAP and LIME [4.328967621024592]
本稿では2つの広く使われているXAI手法の解釈のための枠組みを提案する。
モデル依存性やコリナリティの有無の観点から,これらの結果について議論する。
以上の結果から,SHAPとLIMEはMLモデルや特徴コリナリティーの影響を強く受けており,その使用法や解釈に注意を喚起している。
論文 参考訳(メタデータ) (2023-05-03T10:04:46Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Multivariate Data Explanation by Jumping Emerging Patterns Visualization [78.6363825307044]
多変量データセットにおけるパターンの識別と視覚的解釈を支援するVAX(multiVariate dAta eXplanation)を提案する。
既存の類似のアプローチとは異なり、VAXはJumping Emerging Patternsという概念を使って、複数の多様化したパターンを特定し、集約し、データ変数のロジックの組み合わせを通して説明を生成する。
論文 参考訳(メタデータ) (2021-06-21T13:49:44Z) - Explaining a Series of Models by Propagating Local Feature Attributions [9.66840768820136]
複数の機械学習モデルを含むパイプラインは、多くの領域でパフォーマンスが向上するが、理解が難しい。
Shapley値への接続に基づいて、モデルの複雑なパイプラインを通じてローカル機能属性を伝播させるフレームワークを紹介します。
本フレームワークにより,アルツハイマー病および乳癌の組織学的診断における遺伝子発現特徴群に基づく高次結論の導出が可能となった。
論文 参考訳(メタデータ) (2021-04-30T22:20:58Z) - Transforming Feature Space to Interpret Machine Learning Models [91.62936410696409]
この貢献は、特徴空間変換のレンズを通して機械学習モデルを解釈する新しいアプローチを提案する。
非条件的および条件付きポストホック診断ツールの拡張に使用できる。
提案手法の可能性を実証するために,46特徴のリモートセンシング土地被覆分類の事例研究を行った。
論文 参考訳(メタデータ) (2021-04-09T10:48:11Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - A Diagnostic Study of Explainability Techniques for Text Classification [52.879658637466605]
既存の説明可能性技術を評価するための診断特性のリストを作成する。
そこで本研究では, モデルの性能と有理性との整合性の関係を明らかにするために, 説明可能性手法によって割り当てられた有理性スコアと有理性入力領域の人間のアノテーションを比較した。
論文 参考訳(メタデータ) (2020-09-25T12:01:53Z) - A Semiparametric Approach to Interpretable Machine Learning [9.87381939016363]
機械学習におけるブラックボックスモデルは、複雑な問題と高次元設定において優れた予測性能を示した。
透明性と解釈可能性の欠如は、重要な意思決定プロセスにおけるそのようなモデルの適用性を制限します。
半パラメトリック統計学のアイデアを用いて予測モデルにおける解釈可能性と性能のトレードオフを行う新しい手法を提案する。
論文 参考訳(メタデータ) (2020-06-08T16:38:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。