論文の概要: SurvSHAP(t): Time-dependent explanations of machine learning survival
models
- arxiv url: http://arxiv.org/abs/2208.11080v1
- Date: Tue, 23 Aug 2022 17:01:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-24 12:20:14.627082
- Title: SurvSHAP(t): Time-dependent explanations of machine learning survival
models
- Title(参考訳): SurvSHAP(t): 機械学習サバイバルモデルの時間依存的説明
- Authors: Mateusz Krzyzi\'nski, Miko{\l}aj Spytek, Hubert Baniecki,
Przemys{\l}aw Biecek
- Abstract要約: SurvSHAP(t)は、生存可能なブラックボックスモデルの解釈を可能にする最初の時間依存的な説明である。
合成および医療データの実験により、SurvSHAP(t)が時間依存効果で変数を検出できることが確認された。
我々はPythonで時間に依存した説明のアクセス可能な実装を提供する。
- 参考スコア(独自算出の注目度): 6.950862982117125
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine and deep learning survival models demonstrate similar or even
improved time-to-event prediction capabilities compared to classical
statistical learning methods yet are too complex to be interpreted by humans.
Several model-agnostic explanations are available to overcome this issue;
however, none directly explain the survival function prediction. In this paper,
we introduce SurvSHAP(t), the first time-dependent explanation that allows for
interpreting survival black-box models. It is based on SHapley Additive
exPlanations with solid theoretical foundations and a broad adoption among
machine learning practitioners. The proposed methods aim to enhance precision
diagnostics and support domain experts in making decisions. Experiments on
synthetic and medical data confirm that SurvSHAP(t) can detect variables with a
time-dependent effect, and its aggregation is a better determinant of the
importance of variables for a prediction than SurvLIME. SurvSHAP(t) is
model-agnostic and can be applied to all models with functional output. We
provide an accessible implementation of time-dependent explanations in Python
at http://github.com/MI2DataLab/survshap .
- Abstract(参考訳): 機械学習とディープラーニングのサバイバルモデルは、古典的な統計的学習法と比較すると、人間によって解釈されるには複雑すぎるが、類似または改善された時間対イベント予測能力を示している。
モデルに依存しないいくつかの説明はこの問題を克服するために利用できるが、生存関数の予測を直接説明することはできない。
本稿では,サバイバルブラックボックスモデルの解釈を可能にする最初の時間依存的説明であるsurvshap(t)を提案する。
シャプリーによる理論的な基礎を持つ説明と、機械学習の実践者の間で広く採用されている。
提案手法は,診断精度の向上と意思決定における領域の専門家の支援を目的としている。
SurvSHAP(t)が時間依存効果を持つ変数を検出できることを確認し、その凝集はSurvLIMEよりも変数の重要性を判断できる。
SurvSHAP(t) はモデルに依存しず、関数出力を持つ全てのモデルに適用できる。
我々は http://github.com/MI2DataLab/survshap で Python で時間に依存した説明の実装を提供しています。
関連論文リスト
- Interpretable Prediction and Feature Selection for Survival Analysis [18.987678432106563]
我々は、強い差別と解釈可能性の両方を達成する新しい生存分析モデルであるDyS(dice'と発音する)を提示する。
DySは、特徴選択と解釈可能な予測を1つのモデルに組み合わせた、機能スパースな一般化付加モデルである。
論文 参考訳(メタデータ) (2024-04-23T02:36:54Z) - Interpreting Differentiable Latent States for Healthcare Time-series
Data [4.581930518669275]
本稿では,高関係な入力特徴を用いて潜時状態の解釈を可能にする簡潔なアルゴリズムを提案する。
本手法により、実世界の医療データセットにおける夜間行動を予測するために、昼間の行動パターンを識別できることを示す。
論文 参考訳(メタデータ) (2023-11-29T11:48:16Z) - Generative Modeling of Regular and Irregular Time Series Data via Koopman VAEs [50.25683648762602]
モデルの新しい設計に基づく新しい生成フレームワークであるKoopman VAEを紹介する。
クープマン理論に触発され、線形写像を用いて潜在条件事前力学を表現する。
KoVAEは、いくつかの挑戦的な合成および実世界の時系列生成ベンチマークにおいて、最先端のGANおよびVAEメソッドより優れている。
論文 参考訳(メタデータ) (2023-10-04T07:14:43Z) - Evaluating and Explaining Large Language Models for Code Using Syntactic
Structures [74.93762031957883]
本稿では,コード用大規模言語モデルに特有の説明可能性手法であるASTxplainerを紹介する。
その中核にあるASTxplainerは、トークン予測をASTノードに整合させる自動メソッドを提供する。
私たちは、最も人気のあるGitHubプロジェクトのキュレートデータセットを使用して、コード用の12の人気のあるLLMに対して、実証的な評価を行います。
論文 参考訳(メタデータ) (2023-08-07T18:50:57Z) - TsSHAP: Robust model agnostic feature-based explainability for time
series forecasting [6.004928390125367]
我々は,ブラックボックス予測モデルの予測を説明できる機能ベースの説明可能性アルゴリズムTsSHAPを提案する。
我々は、時系列予測の文脈において、局所的、半局所的、グローバルな説明の概念を定式化する。
論文 参考訳(メタデータ) (2023-03-22T05:14:36Z) - Hypothesis Testing and Machine Learning: Interpreting Variable Effects
in Deep Artificial Neural Networks using Cohen's f2 [0.0]
深層人工ニューラルネットワークは多くの分野において高い予測性能を示す。
しかし、統計的推測をする余裕はなく、ブラックボックスの操作は人間が理解するには複雑すぎる。
本稿では、現在のXAI手法を拡張し、機械学習のためのモデルに依存しない仮説テストフレームワークを開発する。
論文 参考訳(メタデータ) (2023-02-02T20:43:37Z) - TACTiS: Transformer-Attentional Copulas for Time Series [76.71406465526454]
時間変化量の推定は、医療や金融などの分野における意思決定の基本的な構成要素である。
本稿では,アテンションベースデコーダを用いて関節分布を推定する多元的手法を提案する。
本研究では,本モデルが実世界の複数のデータセットに対して最先端の予測を生成することを示す。
論文 参考訳(メタデータ) (2022-02-07T21:37:29Z) - Hessian-based toolbox for reliable and interpretable machine learning in
physics [58.720142291102135]
本稿では,モデルアーキテクチャの解釈可能性と信頼性,外挿を行うためのツールボックスを提案する。
与えられたテストポイントでの予測に対する入力データの影響、モデル予測の不確実性の推定、およびモデル予測の不可知スコアを提供する。
我々の研究は、物理学やより一般的には科学に適用されたMLにおける解釈可能性と信頼性の方法の体系的利用への道を開く。
論文 参考訳(メタデータ) (2021-08-04T16:32:59Z) - Towards a Rigorous Evaluation of Explainability for Multivariate Time
Series [5.786452383826203]
本研究では,時系列予測問題におけるモデル非依存な説明可能性の実現と評価を行った。
その解決策は、販売契約を予測する時系列予測問題として問題をフレーミングすることであった。
LIMEとSHAPによる説明は、機械学習モデルによる予測を理解する上で、人間を大いに助けた。
論文 参考訳(メタデータ) (2021-04-06T17:16:36Z) - Deducing neighborhoods of classes from a fitted model [68.8204255655161]
本稿では,新しいタイプの解釈可能な機械学習手法を提案する。
量子シフトを用いた分類モデルでは、特徴空間の予測クラスへの分割を理解するのに役立ちます。
基本的に、実際のデータポイント(または特定の関心点)を使用し、特定の特徴をわずかに引き上げたり減少させたりした後の予測の変化を観察する。
論文 参考訳(メタデータ) (2020-09-11T16:35:53Z) - Evaluating Explainable AI: Which Algorithmic Explanations Help Users
Predict Model Behavior? [97.77183117452235]
我々は、モデル解釈性に対するアルゴリズム的説明の影響を分離するために、人体テストを実施している。
方法の有効性の明確な証拠はごく少数にみえる。
以上の結果から,説明がシミュラビリティにどのように影響するかの信頼性と包括的評価が得られた。
論文 参考訳(メタデータ) (2020-05-04T20:35:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。