論文の概要: TsSHAP: Robust model agnostic feature-based explainability for time
series forecasting
- arxiv url: http://arxiv.org/abs/2303.12316v1
- Date: Wed, 22 Mar 2023 05:14:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-23 15:09:22.785696
- Title: TsSHAP: Robust model agnostic feature-based explainability for time
series forecasting
- Title(参考訳): tsshap: 時系列予測のためのロバストモデル非依存特徴量に基づく説明可能性
- Authors: Vikas C. Raykar, Arindam Jati, Sumanta Mukherjee, Nupur Aggarwal,
Kanthi Sarpatwar, Giridhar Ganapavarapu, Roman Vaculin
- Abstract要約: 我々は,ブラックボックス予測モデルの予測を説明できる機能ベースの説明可能性アルゴリズムTsSHAPを提案する。
我々は、時系列予測の文脈において、局所的、半局所的、グローバルな説明の概念を定式化する。
- 参考スコア(独自算出の注目度): 6.004928390125367
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A trustworthy machine learning model should be accurate as well as
explainable. Understanding why a model makes a certain decision defines the
notion of explainability. While various flavors of explainability have been
well-studied in supervised learning paradigms like classification and
regression, literature on explainability for time series forecasting is
relatively scarce.
In this paper, we propose a feature-based explainability algorithm, TsSHAP,
that can explain the forecast of any black-box forecasting model. The method is
agnostic of the forecasting model and can provide explanations for a forecast
in terms of interpretable features defined by the user a prior.
The explanations are in terms of the SHAP values obtained by applying the
TreeSHAP algorithm on a surrogate model that learns a mapping between the
interpretable feature space and the forecast of the black-box model.
Moreover, we formalize the notion of local, semi-local, and global
explanations in the context of time series forecasting, which can be useful in
several scenarios. We validate the efficacy and robustness of TsSHAP through
extensive experiments on multiple datasets.
- Abstract(参考訳): 信頼できる機械学習モデルは、説明できるだけでなく正確であるべきです。
モデルがある決定を下す理由を理解することは説明可能性の概念を定義する。
分類や回帰といった教師あり学習パラダイムにおいて、様々な説明可能性のフレーバーがよく研究されているが、時系列予測の説明可能性に関する文献は比較的少ない。
本稿では,ブラックボックス予測モデルの予測を記述可能な機能ベースの説明可能性アルゴリズムTsSHAPを提案する。
この方法は予測モデルに非依存であり、ユーザが事前に定義した解釈可能な特徴の観点から予測の説明を提供することができる。
それらの説明は、解釈可能な特徴空間とブラックボックスモデルの予測の間のマッピングを学習する代理モデルにTreeSHAPアルゴリズムを適用したSHAP値から得られるものである。
さらに,いくつかのシナリオにおいて有用な時系列予測の文脈において,局所的,半局所的,大域的説明の概念を定式化する。
複数のデータセットに対する広範な実験により,TsSHAPの有効性とロバスト性を検証した。
関連論文リスト
- XForecast: Evaluating Natural Language Explanations for Time Series Forecasting [72.57427992446698]
時系列予測は、特に正確な予測に依存するステークホルダーにとって、意思決定を支援する。
伝統的に説明可能なAI(XAI)メソッドは、機能や時間的重要性を基盤とするものであり、専門家の知識を必要とすることが多い。
時系列データにおける複雑な因果関係のため,予測NLEの評価は困難である。
論文 参考訳(メタデータ) (2024-10-18T05:16:39Z) - LaPLACE: Probabilistic Local Model-Agnostic Causal Explanations [1.0370398945228227]
本稿では,機械学習モデルに対する確率論的原因・効果説明を提供するLaPLACE-Explainerを紹介する。
LaPLACE-Explainerコンポーネントはマルコフ毛布の概念を利用して、関連する特徴と非関連する特徴の間の統計的境界を確立する。
提案手法は,LIME と SHAP の局所的精度と特徴の整合性の観点から,因果的説明と性能を向上する。
論文 参考訳(メタデータ) (2023-10-01T04:09:59Z) - Evaluating and Explaining Large Language Models for Code Using Syntactic
Structures [74.93762031957883]
本稿では,コード用大規模言語モデルに特有の説明可能性手法であるASTxplainerを紹介する。
その中核にあるASTxplainerは、トークン予測をASTノードに整合させる自動メソッドを提供する。
私たちは、最も人気のあるGitHubプロジェクトのキュレートデータセットを使用して、コード用の12の人気のあるLLMに対して、実証的な評価を行います。
論文 参考訳(メタデータ) (2023-08-07T18:50:57Z) - Grouping Shapley Value Feature Importances of Random Forests for
explainable Yield Prediction [0.8543936047647136]
本稿では,特徴群に対して直接計算されたShapley値の概念を説明し,木構造上で効率的に計算するアルゴリズムを提案する。
我々は、グローバルな理解のために多くのローカルな説明を組み合わせてSwarmプロットを設計するための青写真を提供する。
論文 参考訳(メタデータ) (2023-04-14T13:03:33Z) - SurvSHAP(t): Time-dependent explanations of machine learning survival
models [6.950862982117125]
SurvSHAP(t)は、生存可能なブラックボックスモデルの解釈を可能にする最初の時間依存的な説明である。
合成および医療データの実験により、SurvSHAP(t)が時間依存効果で変数を検出できることが確認された。
我々はPythonで時間に依存した説明のアクセス可能な実装を提供する。
論文 参考訳(メタデータ) (2022-08-23T17:01:14Z) - Why Did This Model Forecast This Future? Closed-Form Temporal Saliency
Towards Causal Explanations of Probabilistic Forecasts [20.442850522575213]
我々は、人間の知覚に基づく情報理論の一般的な定義の上に構築する。
本稿では, 将来の予測分布の差分エントロピーの観点から, 観測窓の塩分濃度を表現することを提案する。
筆者らは,本フレームワークを用いて,発話方向予測のサンプルタスクにおいて,頭部ポーズ機能から有意な窓を復元する方法を実証的に実証した。
論文 参考訳(メタデータ) (2022-06-01T18:00:04Z) - Pathologies of Pre-trained Language Models in Few-shot Fine-tuning [50.3686606679048]
実例が少ない事前学習言語モデルはラベル間に強い予測バイアスを示すことを示す。
わずかな微調整で予測バイアスを軽減できるが,本分析では,非タスク関連の特徴を捉えることで,モデルの性能向上を図っている。
これらの観察は、より少ない例でモデルのパフォーマンスを追求することは、病理学的予測行動を引き起こす可能性があることを警告する。
論文 参考訳(メタデータ) (2022-04-17T15:55:18Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - An Interpretable Probabilistic Model for Short-Term Solar Power
Forecasting Using Natural Gradient Boosting [0.0]
本稿では,高精度で信頼性が高く,鋭い予測を生成できる2段階確率予測フレームワークを提案する。
このフレームワークは、ポイント予測と予測間隔(PI)の両方について完全な透明性を提供する。
提案フレームワークの性能と適用性を強調するため,南ドイツにある2つのPV公園の実際のデータを用いている。
論文 参考訳(メタデータ) (2021-08-05T12:59:38Z) - Learning Interpretable Deep State Space Model for Probabilistic Time
Series Forecasting [98.57851612518758]
確率的時系列予測は、その歴史に基づいて将来の分布を推定する。
本稿では,非線形エミッションモデルと遷移モデルとをネットワークによってパラメータ化した,確率的時系列予測のための深部状態空間モデルを提案する。
実験では,我々のモデルが正確かつ鋭い確率予測を生成することを示す。
論文 参考訳(メタデータ) (2021-01-31T06:49:33Z) - Evaluations and Methods for Explanation through Robustness Analysis [117.7235152610957]
分析による特徴に基づく説明の新たな評価基準を確立する。
我々は、緩やかに必要であり、予測に十分である新しい説明を得る。
我々は、現在の予測をターゲットクラスに移動させる一連の特徴を抽出するために、説明を拡張します。
論文 参考訳(メタデータ) (2020-05-31T05:52:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。