論文の概要: Explainable time-series forecasting with sampling-free SHAP for Transformers
- arxiv url: http://arxiv.org/abs/2512.20514v1
- Date: Tue, 23 Dec 2025 17:02:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-24 19:17:49.941932
- Title: Explainable time-series forecasting with sampling-free SHAP for Transformers
- Title(参考訳): サンプリング不要SHAPを用いた変圧器の定時予測
- Authors: Matthias Hertel, Sebastian Pütz, Ralf Mikut, Veit Hagenmeyer, Benjamin Schäfer,
- Abstract要約: 本稿では,Transformerアーキテクチャに基づく,高精度かつ高速かつサンプリング不要な時系列予測モデルであるSHAPformerを紹介する。
SHAP Permutation Explainerより数桁高速な説明を1秒以内で生成する。
地上の真実を説明する合成データについて、SHAPformerはデータに忠実な説明を提供する。
- 参考スコア(独自算出の注目度): 3.515829683606796
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Time-series forecasts are essential for planning and decision-making in many domains. Explainability is key to building user trust and meeting transparency requirements. Shapley Additive Explanations (SHAP) is a popular explainable AI framework, but it lacks efficient implementations for time series and often assumes feature independence when sampling counterfactuals. We introduce SHAPformer, an accurate, fast and sampling-free explainable time-series forecasting model based on the Transformer architecture. It leverages attention manipulation to make predictions based on feature subsets. SHAPformer generates explanations in under one second, several orders of magnitude faster than the SHAP Permutation Explainer. On synthetic data with ground truth explanations, SHAPformer provides explanations that are true to the data. Applied to real-world electrical load data, it achieves competitive predictive performance and delivers meaningful local and global insights, such as identifying the past load as the key predictor and revealing a distinct model behavior during the Christmas period.
- Abstract(参考訳): 時系列予測は多くの領域で計画と意思決定に不可欠である。
ユーザ信頼の構築と透明性の要求を満たす上では、説明責任が重要です。
Shapley Additive Explanations (SHAP)は、一般的な説明可能なAIフレームワークであるが、時系列の効率的な実装に欠けており、カウンターファクトをサンプリングする時にしばしば機能独立を前提としている。
本稿では,Transformerアーキテクチャに基づく,高精度かつ高速かつサンプリング不要な時系列予測モデルであるSHAPformerを紹介する。
注意操作を活用して、機能サブセットに基づいた予測を行う。
SHAPformerは、SHAP Permutation Explainerよりも数桁高速な説明を生成する。
地上の真実を説明する合成データについて、SHAPformerはデータに忠実な説明を提供する。
実世界の電気負荷データに適用すると、競争力のある予測性能を達成し、過去の負荷を重要な予測要因として特定したり、クリスマス期間中に異なるモデル行動を明らかにするなど、重要なローカルおよびグローバルな洞察を提供する。
関連論文リスト
- A Unified Frequency Domain Decomposition Framework for Interpretable and Robust Time Series Forecasting [81.73338008264115]
時系列予測の現在のアプローチは、時間領域であれ周波数領域であれ、主に線形層やトランスフォーマーに基づいたディープラーニングモデルを使用する。
本稿では,多種多様な時系列を数学的に抽象化する統合周波数領域分解フレームワークFIREを提案する。
火は長期予測ベンチマークで最先端のモデルを一貫して上回る。
論文 参考訳(メタデータ) (2025-10-11T09:59:25Z) - ProtoTS: Learning Hierarchical Prototypes for Explainable Time Series Forecasting [25.219624871510376]
本稿では,高精度かつ透明な意思決定を実現する新しい解釈可能な予測フレームワークであるProtoTSを提案する。
ProtoTSは、豊富な異種情報を保存する識別表現に基づいて、インスタンス-プロトタイプの類似性を計算する。
新たにリリースされたLOFデータセットを含む、複数の現実的なベンチマークの実験は、ProtoTSが予測精度の既存のメソッドを超えるだけでなく、専門家が選択可能な解釈を提供することを示している。
論文 参考訳(メタデータ) (2025-09-27T07:10:21Z) - Powerformer: A Transformer with Weighted Causal Attention for Time-series Forecasting [50.298817606660826]
我々は,非因果重みをスムーズな重み付き崩壊に応じて再加重する因果重みに置き換える新しいトランスフォーマーであるPowerformerを紹介する。
我々の実証実験の結果,Powerformer は公開時系列ベンチマークで最先端の精度を達成できた。
分析の結果、トレーニング中にモデルの局所性バイアスが増幅され、時系列データとパワールールに基づく注意の相互作用が示されることがわかった。
論文 参考訳(メタデータ) (2025-02-10T04:42:11Z) - Sundial: A Family of Highly Capable Time Series Foundation Models [47.27032162475962]
Sundialはネイティブでフレキシブルでスケーラブルな時系列基盤モデルのファミリーです。
我々のモデルは、事前の分布を指定せずに事前訓練されており、複数の確率予測を生成することができる。
Sundialは、ジャスト・イン・タイムの推論速度で、ポイントと確率予測ベンチマークの両方で最先端の結果を達成する。
論文 参考訳(メタデータ) (2025-02-02T14:52:50Z) - Unifying Prediction and Explanation in Time-Series Transformers via Shapley-based Pretraining [0.0]
ShapTSTは、時系列トランスフォーマーが、1つのフォワードパスで予測と並行してShapley値ベースの説明を効率的に生成することを可能にするフレームワークである。
本フレームワークは,新しいShapleyベースの事前学習設計を通じて,学習における説明と予測を統一する。
論文 参考訳(メタデータ) (2025-01-25T04:24:35Z) - Distributed Lag Transformer based on Time-Variable-Aware Learning for Explainable Multivariate Time Series Forecasting [4.572747329528556]
分散ラグ変換器(DLFormer)は、説明可能でスケーラブルな時系列モデルのための新しいトランスフォーマーアーキテクチャである。
DLFormerは分散ラグ埋め込みと時間変数認識学習(TVAL)機構を統合し、局所的およびグローバルな時間的依存関係の両方を構造的にモデル化する。
実験により、DLFormerは、変数の賢さと時間的ダイナミクスに対する堅牢で解釈可能な洞察を提供しながら、予測精度を達成することが示された。
論文 参考訳(メタデータ) (2024-08-29T20:39:54Z) - DAM: Towards A Foundation Model for Time Series Forecasting [0.8231118867997028]
本稿では,ランダムにサンプリングされた履歴を抽出し,時間連続関数として調整可能な基底組成を出力するニューラルモデルを提案する。
1)長い尾の分布からランダムにサンプリングされたヒストリーを使用する柔軟なアプローチ、(2)これらの活発にサンプリングされたヒストリーに基づいてトレーニングされたトランスフォーマーバックボーンを表現的出力として、(3)時間の連続関数の基底係数を含む。
論文 参考訳(メタデータ) (2024-07-25T08:48:07Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z) - Transformer Hawkes Process [79.16290557505211]
本稿では,長期的依存関係を捕捉する自己認識機構を利用したTransformer Hawkes Process (THP) モデルを提案する。
THPは、有意なマージンによる可能性と事象予測の精度の両方の観点から、既存のモデルより優れている。
本稿では、THPが関係情報を組み込む際に、複数の点過程を学習する際の予測性能の改善を実現する具体例を示す。
論文 参考訳(メタデータ) (2020-02-21T13:48:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。