論文の概要: Distributed Lag Transformer based on Time-Variable-Aware Learning for Explainable Multivariate Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2408.16896v2
- Date: Wed, 13 Aug 2025 04:58:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 20:42:00.464743
- Title: Distributed Lag Transformer based on Time-Variable-Aware Learning for Explainable Multivariate Time Series Forecasting
- Title(参考訳): 説明可能な多変量時系列予測のための時間可変学習に基づく分散ラグ変換器
- Authors: Younghwi Kim, Dohee Kim, Joongrock Kim, Sunghyun Sim,
- Abstract要約: 分散ラグ変換器(DLFormer)は、説明可能でスケーラブルな時系列モデルのための新しいトランスフォーマーアーキテクチャである。
DLFormerは分散ラグ埋め込みと時間変数認識学習(TVAL)機構を統合し、局所的およびグローバルな時間的依存関係の両方を構造的にモデル化する。
実験により、DLFormerは、変数の賢さと時間的ダイナミクスに対する堅牢で解釈可能な洞察を提供しながら、予測精度を達成することが示された。
- 参考スコア(独自算出の注目度): 4.572747329528556
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Time series data is a key element of big data analytics, commonly found in domains such as finance, healthcare, climate forecasting, and transportation. In large scale real world settings, such data is often high dimensional and multivariate, requiring advanced forecasting methods that are both accurate and interpretable. Although Transformer based models perform well in multivariate time series forecasting (MTSF), their lack of explainability limits their use in critical applications. To overcome this, we propose Distributed Lag Transformer (DLFormer), a novel Transformer architecture for explainable and scalable MTSF. DLFormer integrates a distributed lag embedding and a time variable aware learning (TVAL) mechanism to structurally model both local and global temporal dependencies and explicitly capture the influence of past variables on future outcomes. Experiments on ten benchmark and real world datasets show that DLFormer achieves state of the art predictive accuracy while offering robust, interpretable insights into variable wise and temporal dynamics. These results highlight ability of DLFormer to bridge the gap between performance and explainability, making it highly suitable for practical big data forecasting tasks.
- Abstract(参考訳): 時系列データはビッグデータ分析の重要な要素であり、金融、医療、気候予報、交通などの分野でよく見られる。
大規模な実世界の環境では、そのようなデータは高次元かつ多変量であり、正確かつ解釈可能な高度な予測方法を必要とする。
Transformerベースのモデルは多変量時系列予測(MTSF)でよく機能するが、説明可能性の欠如は重要なアプリケーションでの使用を制限する。
これを解決するために,説明可能かつスケーラブルなMTSFのための新しいトランスフォーマーアーキテクチャである分散ラグトランス (DLFormer) を提案する。
DLFormerは分散ラグ埋め込みと時間変数認識学習(TVAL)機構を統合し、局所的およびグローバルな時間的依存関係の両方を構造的にモデル化し、過去の変数が将来の結果に与える影響を明示的に把握する。
10のベンチマークと実世界のデータセットの実験は、DLFormerが最先端の予測精度を達成し、可変的および時間的ダイナミクスに対する堅牢で解釈可能な洞察を提供することを示している。
これらの結果はDLFormerが性能と説明可能性のギャップを埋める能力を強調しており、実用的なビッグデータ予測タスクに非常に適している。
関連論文リスト
- In Shift and In Variance: Assessing the Robustness of HAR Deep Learning Models against Variability [4.330123738563178]
ウェアラブル慣性測定ユニット(IMU)センサーを用いたHAR(Human Activity Recognition)は、継続的な健康モニタリング、疾患予測、定期的な認識を可能にして、医療に革命をもたらすことができる。
ディープラーニング(DL)HARモデルの精度は高いが、実世界の変動に対する堅牢性はまだ証明されていない。
対象, 装置, 位置, 方向の変動を分離し, DL HARモデルへの影響を判定し, 実環境におけるそれらのモデルのロバスト性を評価する。
論文 参考訳(メタデータ) (2025-03-14T14:53:56Z) - Powerformer: A Transformer with Weighted Causal Attention for Time-series Forecasting [50.298817606660826]
我々は,非因果重みをスムーズな重み付き崩壊に応じて再加重する因果重みに置き換える新しいトランスフォーマーであるPowerformerを紹介する。
我々の実証実験の結果,Powerformer は公開時系列ベンチマークで最先端の精度を達成できた。
分析の結果、トレーニング中にモデルの局所性バイアスが増幅され、時系列データとパワールールに基づく注意の相互作用が示されることがわかった。
論文 参考訳(メタデータ) (2025-02-10T04:42:11Z) - ExoTST: Exogenous-Aware Temporal Sequence Transformer for Time Series Prediction [11.511830352094353]
時系列予測のためのトランスフォーマーベースのフレームワークであるExoTSTを提案する。
過去の変数と現在の変数を統合するために、ExoTSTは、新しい時間的相互モダリティ融合モジュールを導入した。
実世界の炭素フラックスデータセットと時系列ベンチマークの実験は、ExoTSTの優れた性能を示している。
論文 参考訳(メタデータ) (2024-10-16T03:04:37Z) - Learning Graph Structures and Uncertainty for Accurate and Calibrated Time-series Forecasting [65.40983982856056]
本稿では,時系列間の相関を利用して時系列間の構造を学習し,精度の高い正確な予測を行うSTOICを紹介する。
幅広いベンチマークデータセットに対して、STOICは16%の精度とキャリブレーションのよい予測を提供する。
論文 参考訳(メタデータ) (2024-07-02T20:14:32Z) - TimeXer: Empowering Transformers for Time Series Forecasting with Exogenous Variables [75.83318701911274]
TimeXerは外部情報を取り込み、内因性変数の予測を強化する。
TimeXerは、12の現実世界の予測ベンチマークで一貫した最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-29T11:54:35Z) - Discovering Predictable Latent Factors for Time Series Forecasting [39.08011991308137]
我々は,観測可能な時系列によって示唆される本質的な潜伏因子を推定するための新しい枠組みを開発する。
予測可能性,充足性,識別性という3つの特性を導入し,これらの特性を強力な潜伏力学モデルを用いてモデル化する。
複数の実データに対する実験結果から, 時系列予測の手法の有効性が示唆された。
論文 参考訳(メタデータ) (2023-03-18T14:37:37Z) - DRAformer: Differentially Reconstructed Attention Transformer for
Time-Series Forecasting [7.805077630467324]
時系列予測は、機器ライフサイクル予測、天気予報、交通フロー予測など、多くの現実シナリオにおいて重要な役割を果たす。
最近の研究から、様々なトランスフォーマーモデルが時系列予測において顕著な結果を示したことが観察できる。
しかし、時系列予測タスクにおけるトランスフォーマーモデルの性能を制限する問題がまだ残っている。
論文 参考訳(メタデータ) (2022-06-11T10:34:29Z) - Multi-scale Attention Flow for Probabilistic Time Series Forecasting [68.20798558048678]
マルチスケールアテンション正規化フロー(MANF)と呼ばれる非自己回帰型ディープラーニングモデルを提案する。
我々のモデルは累積誤差の影響を回避し、時間の複雑さを増大させない。
本モデルは,多くの多変量データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-05-16T07:53:42Z) - TACTiS: Transformer-Attentional Copulas for Time Series [76.71406465526454]
時間変化量の推定は、医療や金融などの分野における意思決定の基本的な構成要素である。
本稿では,アテンションベースデコーダを用いて関節分布を推定する多元的手法を提案する。
本研究では,本モデルが実世界の複数のデータセットに対して最先端の予測を生成することを示す。
論文 参考訳(メタデータ) (2022-02-07T21:37:29Z) - Model-Attentive Ensemble Learning for Sequence Modeling [86.4785354333566]
シーケンスモデリング(MAES)のためのモデル・アテンティブ・アンサンブル・ラーニングを提案する。
MAESは、異なるシーケンスダイナミクスの専門家を専門とし、予測を適応的に重み付けるために、注目ベースのゲーティングメカニズムを利用する時系列の専門家の混合物です。
MAESが時系列シフトを受けるデータセットの人気シーケンスモデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2021-02-23T05:23:35Z) - Spatiotemporal Attention for Multivariate Time Series Prediction and
Interpretation [17.568599402858037]
最も重要な時間ステップと変数の同時学習のための時間的注意機構(STAM)。
結果: STAMは最先端の予測精度を維持しつつ,正確な解釈可能性の利点を提供する。
論文 参考訳(メタデータ) (2020-08-11T17:34:55Z) - Transformer Hawkes Process [79.16290557505211]
本稿では,長期的依存関係を捕捉する自己認識機構を利用したTransformer Hawkes Process (THP) モデルを提案する。
THPは、有意なマージンによる可能性と事象予測の精度の両方の観点から、既存のモデルより優れている。
本稿では、THPが関係情報を組み込む際に、複数の点過程を学習する際の予測性能の改善を実現する具体例を示す。
論文 参考訳(メタデータ) (2020-02-21T13:48:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。