論文の概要: Evaluation of Local Explanation Methods for Multivariate Time Series
Forecasting
- arxiv url: http://arxiv.org/abs/2009.09092v1
- Date: Fri, 18 Sep 2020 21:15:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 02:33:13.880059
- Title: Evaluation of Local Explanation Methods for Multivariate Time Series
Forecasting
- Title(参考訳): 多変量時系列予測のための局所的説明法の評価
- Authors: Ozan Ozyegen and Igor Ilic and Mucahit Cevik
- Abstract要約: 局所的解釈可能性は、モデルが特定の予測を行う理由を決定する上で重要である。
近年、AIの解釈可能性に焦点が当てられているが、時系列予測のための局所的な解釈可能性手法の研究は不足している。
- 参考スコア(独自算出の注目度): 0.21094707683348418
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Being able to interpret a machine learning model is a crucial task in many
applications of machine learning. Specifically, local interpretability is
important in determining why a model makes particular predictions. Despite the
recent focus on AI interpretability, there has been a lack of research in local
interpretability methods for time series forecasting while the few
interpretable methods that exist mainly focus on time series classification
tasks. In this study, we propose two novel evaluation metrics for time series
forecasting: Area Over the Perturbation Curve for Regression and Ablation
Percentage Threshold. These two metrics can measure the local fidelity of local
explanation models. We extend the theoretical foundation to collect
experimental results on two popular datasets, \textit{Rossmann sales} and
\textit{electricity}. Both metrics enable a comprehensive comparison of
numerous local explanation models and find which metrics are more sensitive.
Lastly, we provide heuristical reasoning for this analysis.
- Abstract(参考訳): 機械学習モデルを解釈できることは、機械学習の多くの応用において重要なタスクである。
具体的には、モデルが特定の予測を行う理由を決定する上で、局所的解釈可能性が重要である。
最近のaiの解釈可能性に焦点が当てられているにもかかわらず、時系列予測のための局所的な解釈可能性の研究が欠如している一方で、既存の解釈可能な手法は、主に時系列分類タスクに焦点を当てているものはほとんどない。
本研究では,時系列予測のための新しい評価指標である回帰摂動曲線上の領域とアブレーション率閾値を提案する。
これら2つの指標は、局所的説明モデルの局所的忠実度を測定することができる。
理論基盤を拡張して,2つの一般的なデータセット, \textit{Rossmann sales} と \textit{electricity} の実験結果を収集する。
両方のメトリクスは、多数のローカルな説明モデルの包括的な比較を可能にし、どのメトリクスがより敏感であるかを見つける。
最後に、この分析にヒューリスティックな推論を提供する。
関連論文リスト
- Context is Key: A Benchmark for Forecasting with Essential Textual Information [87.3175915185287]
コンテキスト・イズ・キー (Context is Key) (CiK) は、時系列予測ベンチマークであり、様々な種類のテキストコンテキストと数値データをペアリングする。
我々は,統計モデル,時系列基礎モデル,LLMに基づく予測モデルなど,さまざまなアプローチを評価する。
実験では、文脈情報の導入の重要性を強調し、LLMに基づく予測モデルを用いた場合の驚くべき性能を示すとともに、それらの重要な欠点を明らかにした。
論文 参考訳(メタデータ) (2024-10-24T17:56:08Z) - XForecast: Evaluating Natural Language Explanations for Time Series Forecasting [72.57427992446698]
時系列予測は、特に正確な予測に依存するステークホルダーにとって、意思決定を支援する。
伝統的に説明可能なAI(XAI)メソッドは、機能や時間的重要性を基盤とするものであり、専門家の知識を必要とすることが多い。
時系列データにおける複雑な因果関係のため,予測NLEの評価は困難である。
論文 参考訳(メタデータ) (2024-10-18T05:16:39Z) - DANLIP: Deep Autoregressive Networks for Locally Interpretable
Probabilistic Forecasting [0.0]
本稿では,本質的に解釈可能な,深層学習に基づく確率的時系列予測アーキテクチャを提案する。
我々のモデルは解釈可能であるだけでなく、最先端の確率的時系列予測手法に匹敵する性能を提供する。
論文 参考訳(メタデータ) (2023-01-05T23:40:23Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - A Closer Look at Debiased Temporal Sentence Grounding in Videos:
Dataset, Metric, and Approach [53.727460222955266]
テンポラル・センテンス・グラウンディング・イン・ビデオ(TSGV)は、未編集のビデオに自然言語文を埋め込むことを目的としている。
最近の研究では、現在のベンチマークデータセットには明らかなモーメントアノテーションバイアスがあることが判明している。
偏りのあるデータセットによる膨らませ評価を緩和するため、基礎的リコールスコアを割引する新しい評価基準「dR@n,IoU@m」を導入する。
論文 参考訳(メタデータ) (2022-03-10T08:58:18Z) - TACTiS: Transformer-Attentional Copulas for Time Series [76.71406465526454]
時間変化量の推定は、医療や金融などの分野における意思決定の基本的な構成要素である。
本稿では,アテンションベースデコーダを用いて関節分布を推定する多元的手法を提案する。
本研究では,本モデルが実世界の複数のデータセットに対して最先端の予測を生成することを示す。
論文 参考訳(メタデータ) (2022-02-07T21:37:29Z) - Deducing neighborhoods of classes from a fitted model [68.8204255655161]
本稿では,新しいタイプの解釈可能な機械学習手法を提案する。
量子シフトを用いた分類モデルでは、特徴空間の予測クラスへの分割を理解するのに役立ちます。
基本的に、実際のデータポイント(または特定の関心点)を使用し、特定の特徴をわずかに引き上げたり減少させたりした後の予測の変化を観察する。
論文 参考訳(メタデータ) (2020-09-11T16:35:53Z) - Spatiotemporal Attention for Multivariate Time Series Prediction and
Interpretation [17.568599402858037]
最も重要な時間ステップと変数の同時学習のための時間的注意機構(STAM)。
結果: STAMは最先端の予測精度を維持しつつ,正確な解釈可能性の利点を提供する。
論文 参考訳(メタデータ) (2020-08-11T17:34:55Z) - timeXplain -- A Framework for Explaining the Predictions of Time Series
Classifiers [3.6433472230928428]
本稿では,時間領域,周波数領域,時系列統計に関する新しいドメインマッピングを提案する。
我々は彼らの説明力と限界を分析する。
我々は、TimeXplainといくつかのモデル固有の説明手法を実験的に比較するために、新しい評価基準を用いる。
論文 参考訳(メタデータ) (2020-07-15T10:32:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。