論文の概要: CNN-TFT explained by SHAP with multi-head attention weights for time series forecasting
- arxiv url: http://arxiv.org/abs/2510.06840v1
- Date: Wed, 08 Oct 2025 10:08:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.411999
- Title: CNN-TFT explained by SHAP with multi-head attention weights for time series forecasting
- Title(参考訳): SHAPによる時系列予測のための重み付きCNN-TFT
- Authors: Stefano F. Stefenon, João P. Matos-Carvalho, Valderi R. Q. Leithardt, Kin-Choong Yow,
- Abstract要約: 本稿では,畳み込み特徴抽出と時間融合変換器を組み合わせたハイブリッドアーキテクチャを提案する。
CNN-TFTは、確立されたディープラーニングモデルよりも優れており、平均絶対パーセンテージエラーは2.2%である。
- 参考スコア(独自算出の注目度): 0.6019777076722422
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Convolutional neural networks (CNNs) and transformer architectures offer strengths for modeling temporal data: CNNs excel at capturing local patterns and translational invariances, while transformers effectively model long-range dependencies via self-attention. This paper proposes a hybrid architecture integrating convolutional feature extraction with a temporal fusion transformer (TFT) backbone to enhance multivariate time series forecasting. The CNN module first applies a hierarchy of one-dimensional convolutional layers to distill salient local patterns from raw input sequences, reducing noise and dimensionality. The resulting feature maps are then fed into the TFT, which applies multi-head attention to capture both short- and long-term dependencies and to weigh relevant covariates adaptively. We evaluate the CNN-TFT on a hydroelectric natural flow time series dataset. Experimental results demonstrate that CNN-TFT outperforms well-established deep learning models, with a mean absolute percentage error of up to 2.2%. The explainability of the model is obtained by a proposed Shapley additive explanations with multi-head attention weights (SHAP-MHAW). Our novel architecture, named CNN-TFT-SHAP-MHAW, is promising for applications requiring high-fidelity, multivariate time series forecasts, being available for future analysis at https://github.com/SFStefenon/CNN-TFT-SHAP-MHAW .
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)とトランスフォーマーアーキテクチャは、時間データモデリングの長所を提供する。
本稿では、畳み込み特徴抽出と時間融合変圧器(TFT)のバックボーンを統合し、多変量時系列予測を強化するハイブリッドアーキテクチャを提案する。
CNNモジュールは、まず1次元の畳み込み層の階層を用いて、生の入力シーケンスから局所パターンを抽出し、ノイズと寸法を減少させる。
得られた特徴写像はTFTに入力され、短期および長期の依存関係を捕捉し、関連する共変量を適応的に測定する。
我々はCNN-TFTを水力自然流時系列データセット上で評価する。
実験の結果、CNN-TFTは確立されたディープラーニングモデルよりも優れており、平均絶対パーセンテージ誤差は最大2.2%である。
モデルの説明性はマルチヘッドアテンション重み(SHAP-MHAW)を用いたShapley付加的な説明によって得られる。
我々の新しいアーキテクチャであるCNN-TFT-SHAP-MHAWは、高忠実で多変量時系列予測を必要とするアプリケーションに対して、https://github.com/SFStefenon/CNN-TFT-SHAP-MHAWで将来の分析に利用できることを約束している。
関連論文リスト
- Adaptive Fuzzy Time Series Forecasting via Partially Asymmetric Convolution and Sub-Sliding Window Fusion [0.0]
本稿では,スライディングウィンドウの時間に基づいて,部分的に非対称な設計を施した新しい畳み込みアーキテクチャを提案する。
提案手法は,一般的な時系列データセットのほとんどに対して,最先端の結果を得られる。
論文 参考訳(メタデータ) (2025-07-28T08:58:25Z) - MS-DFTVNet:A Long-Term Time Series Prediction Method Based on Multi-Scale Deformable Convolution [12.652031472297416]
我々は,長期予測のための変形可能な畳み込みフレームワークであるMS-DFTVNetを開発した。
実験の結果、MS-DFTVNetは強いベースラインを著しく上回るだけでなく、平均7.5%の改善も達成している。
論文 参考訳(メタデータ) (2025-06-08T10:33:39Z) - A Multi-Layer CNN-GRUSKIP model based on transformer for spatial TEMPORAL traffic flow prediction [0.06597195879147556]
交通流予測は、インテリジェント交通システムITSの基盤のままである。
CNN-GRUSKIPモデルは先駆的なアプローチとして現れる。
このモデルは、ARIMA、Graph Wave Net、HA、LSTM、STGCN、APTといった確立したモデルよりも一貫して優れていた。
強力な予測能力と適応アーキテクチャにより、CNN-GRUSKIPモデルはITSアプリケーションを再定義する。
論文 参考訳(メタデータ) (2025-01-09T21:30:02Z) - A Self-organizing Interval Type-2 Fuzzy Neural Network for Multi-Step Time Series Prediction [9.546043411729206]
インターバル型2ファジィニューラルネットワーク(IT2FNN)は、単一ステップ予測タスクに対する不確実性モデリングにおいて、例外的な性能を示した。
本稿では,複数出力(SOIT2FNN-MO)を有する新しい自己組織化間隔型2ファジィニューラルネットワークを提案する。
カオスおよびマイクログリッド予測問題に対する実験結果から,SOIT2FNN-MOは最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-07-10T19:35:44Z) - TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals [58.865901821451295]
本稿では,新しい2ストリーム機能融合 "Tensor-Convolution and Convolution-Transformer Network" (TCCT-Net) アーキテクチャを提案する。
時間空間領域における意味のあるパターンをよりよく学習するために、ハイブリッド畳み込み変換器を統合する「CT」ストリームを設計する。
並行して、時間周波数領域からリッチなパターンを効率的に抽出するために、連続ウェーブレット変換(CWT)を用いて情報を2次元テンソル形式で表現する「TC」ストリームを導入する。
論文 参考訳(メタデータ) (2024-04-15T06:01:48Z) - WinNet: Make Only One Convolutional Layer Effective for Time Series Forecasting [11.232780368635416]
我々は、WinNetと呼ばれる1つの畳み込み層しか持たない非常に正確で単純なCNNベースのモデルを提案する。
その結果、WinNetは、CNNベースのメソッドよりもSOTA性能と複雑さが低いことを実証した。
論文 参考訳(メタデータ) (2023-11-01T01:23:59Z) - CARD: Channel Aligned Robust Blend Transformer for Time Series
Forecasting [50.23240107430597]
本稿では,CARD(Channel Aligned Robust Blend Transformer)という特殊なトランスを設計する。
まず、CARDはチャネルに沿ったアテンション構造を導入し、信号間の時間的相関をキャプチャする。
第二に、マルチスケール知識を効率的に活用するために、異なる解像度のトークンを生成するトークンブレンドモジュールを設計する。
第3に,潜在的な過度な問題を軽減するため,時系列予測のためのロバストな損失関数を導入する。
論文 参考訳(メタデータ) (2023-05-20T05:16:31Z) - FormerTime: Hierarchical Multi-Scale Representations for Multivariate
Time Series Classification [53.55504611255664]
formerTimeは、多変量時系列分類タスクの分類能力を改善する階層的表現モデルである。
1)時系列データから階層的なマルチスケール表現を学習し、(2)トランスフォーマーと畳み込みネットワークの強さを継承し、(3)自己維持メカニズムによって引き起こされる効率の課題に取り組む。
論文 参考訳(メタデータ) (2023-02-20T07:46:14Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。