論文の概要: DLFormer: Enhancing Explainability in Multivariate Time Series Forecasting using Distributed Lag Embedding
- arxiv url: http://arxiv.org/abs/2408.16896v1
- Date: Thu, 29 Aug 2024 20:39:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-09-02 16:58:54.774462
- Title: DLFormer: Enhancing Explainability in Multivariate Time Series Forecasting using Distributed Lag Embedding
- Title(参考訳): DLFormer:分散ラグ埋め込みを用いた多変量時系列予測における説明可能性の向上
- Authors: Younghwi Kim, Dohee Kim, Sunghyun Sim,
- Abstract要約: 本研究では,分散ラグ埋め込みと統合されたアテンションベースのアーキテクチャであるDLFormerを紹介する。
既存の注目ベースのハイパフォーマンスモデルと比較して、優れたパフォーマンス向上を示す。
- 参考スコア(独自算出の注目度): 4.995397953581609
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: . Most real-world variables are multivariate time series influenced by past values and explanatory factors. Consequently, predicting these time series data using artificial intelligence is ongoing. In particular, in fields such as healthcare and finance, where reliability is crucial, having understandable explanations for predictions is essential. However, achieving a balance between high prediction accuracy and intuitive explainability has proven challenging. Although attention-based models have limitations in representing the individual influences of each variable, these models can influence the temporal dependencies in time series prediction and the magnitude of the influence of individual variables. To address this issue, this study introduced DLFormer, an attention-based architecture integrated with distributed lag embedding, to temporally embed individual variables and capture their temporal influence. Through validation against various real-world datasets, DLFormer showcased superior performance improvements compared to existing attention-based high-performance models. Furthermore, comparing the relationships between variables enhanced the reliability of explainability.
- Abstract(参考訳): と。
ほとんどの実世界の変数は、過去の値と説明因子に影響された多変量時系列である。
その結果,人工知能を用いた時系列データの予測が進行中である。
特に、信頼性が不可欠である医療や金融などの分野では、予測の理解可能な説明が不可欠である。
しかし、高い予測精度と直感的な説明可能性のバランスをとることは困難であることが証明されている。
注意に基づくモデルは、各変数の個々の影響を表現するのに制限があるが、これらのモデルは時系列予測における時間的依存性と個々の変数の影響の大きさに影響を与える可能性がある。
そこで本研究では,分散ラグ埋め込みと統合されたアテンションベースのアーキテクチャであるDLFormerを導入し,各変数を時間的に埋め込み,時間的影響を捉えた。
さまざまな実世界のデータセットに対する検証を通じて、DLFormerは既存の注目ベースのハイパフォーマンスモデルよりも優れたパフォーマンス向上を示した。
さらに、変数間の関係を比較することで、説明可能性の信頼性が向上した。
関連論文リスト
- DiTS: Multimodal Diffusion Transformers Are Time Series Forecasters [50.43534351968113]
既存の生成時系列モデルは、時系列データの多次元特性にうまく対応していない。
動画生成にテキストガイダンスを組み込んだマルチモーダル拡散変換器に着想を得て,Diffusion Transformer for Time Series (DiTS)を提案する。
論文 参考訳(メタデータ) (2026-02-06T10:48:13Z) - Explainable time-series forecasting with sampling-free SHAP for Transformers [3.515829683606796]
本稿では,Transformerアーキテクチャに基づく,高精度かつ高速かつサンプリング不要な時系列予測モデルであるSHAPformerを紹介する。
SHAP Permutation Explainerより数桁高速な説明を1秒以内で生成する。
地上の真実を説明する合成データについて、SHAPformerはデータに忠実な説明を提供する。
論文 参考訳(メタデータ) (2025-12-23T17:02:35Z) - IndexNet: Timestamp and Variable-Aware Modeling for Time Series Forecasting [35.17464235813366]
IndexNetは、Index Embedding (IE)モジュールを備えたベクトルベースの拡張フレームワークである。
IEはタイムスタンプを埋め込みに変換し、入力シーケンスに注入することで、長期の複雑な周期パターンをキャプチャするモデルの能力を向上させる。
並行してCEは、各変数をそのインデックスに基づいてユニークで訓練可能なID埋め込みを割り当て、モデルが不均一な変数を明示的に区別できるようにする。
論文 参考訳(メタデータ) (2025-09-28T11:30:17Z) - In Shift and In Variance: Assessing the Robustness of HAR Deep Learning Models against Variability [4.330123738563178]
ウェアラブル慣性測定ユニット(IMU)センサーを用いたHAR(Human Activity Recognition)は、継続的な健康モニタリング、疾患予測、定期的な認識を可能にして、医療に革命をもたらすことができる。
ディープラーニング(DL)HARモデルの精度は高いが、実世界の変動に対する堅牢性はまだ証明されていない。
対象, 装置, 位置, 方向の変動を分離し, DL HARモデルへの影響を判定し, 実環境におけるそれらのモデルのロバスト性を評価する。
論文 参考訳(メタデータ) (2025-03-14T14:53:56Z) - Powerformer: A Transformer with Weighted Causal Attention for Time-series Forecasting [50.298817606660826]
我々は,非因果重みをスムーズな重み付き崩壊に応じて再加重する因果重みに置き換える新しいトランスフォーマーであるPowerformerを紹介する。
我々の実証実験の結果,Powerformer は公開時系列ベンチマークで最先端の精度を達成できた。
分析の結果、トレーニング中にモデルの局所性バイアスが増幅され、時系列データとパワールールに基づく注意の相互作用が示されることがわかった。
論文 参考訳(メタデータ) (2025-02-10T04:42:11Z) - EDformer: Embedded Decomposition Transformer for Interpretable Multivariate Time Series Predictions [4.075971633195745]
本稿では,時系列予測タスクのための組込みトランス「EDformer」を提案する。
基本要素を変更することなく、Transformerアーキテクチャを再利用し、その構成部品の有能な機能について検討する。
このモデルは、複雑な実世界の時系列データセットの精度と効率の観点から、最先端の予測結果を得る。
論文 参考訳(メタデータ) (2024-12-16T11:13:57Z) - Tackling Data Heterogeneity in Federated Time Series Forecasting [61.021413959988216]
時系列予測は、エネルギー消費予測、病気の伝染モニタリング、天気予報など、様々な実世界の応用において重要な役割を果たす。
既存のほとんどのメソッドは、分散デバイスから中央クラウドサーバに大量のデータを収集する、集中的なトレーニングパラダイムに依存しています。
本稿では,情報合成データを補助的知識キャリアとして生成することにより,データの均一性に対処する新しいフレームワークであるFed-TRENDを提案する。
論文 参考訳(メタデータ) (2024-11-24T04:56:45Z) - ExoTST: Exogenous-Aware Temporal Sequence Transformer for Time Series Prediction [11.511830352094353]
時系列予測のためのトランスフォーマーベースのフレームワークであるExoTSTを提案する。
過去の変数と現在の変数を統合するために、ExoTSTは、新しい時間的相互モダリティ融合モジュールを導入した。
実世界の炭素フラックスデータセットと時系列ベンチマークの実験は、ExoTSTの優れた性能を示している。
論文 参考訳(メタデータ) (2024-10-16T03:04:37Z) - Learning Graph Structures and Uncertainty for Accurate and Calibrated Time-series Forecasting [65.40983982856056]
本稿では,時系列間の相関を利用して時系列間の構造を学習し,精度の高い正確な予測を行うSTOICを紹介する。
幅広いベンチマークデータセットに対して、STOICは16%の精度とキャリブレーションのよい予測を提供する。
論文 参考訳(メタデータ) (2024-07-02T20:14:32Z) - Adapting to Length Shift: FlexiLength Network for Trajectory Prediction [53.637837706712794]
軌道予測は、自律運転、ロボット工学、シーン理解など、様々な応用において重要な役割を果たしている。
既存のアプローチは主に、一般に標準入力時間を用いて、公開データセットの予測精度を高めるために、コンパクトなニューラルネットワークの開発に重点を置いている。
本稿では,様々な観測期間に対する既存の軌道予測の堅牢性を高めるための,汎用的で効果的なフレームワークFlexiLength Network(FLN)を紹介する。
論文 参考訳(メタデータ) (2024-03-31T17:18:57Z) - TimeXer: Empowering Transformers for Time Series Forecasting with Exogenous Variables [75.83318701911274]
TimeXerは外部情報を取り込み、内因性変数の予測を強化する。
TimeXerは、12の現実世界の予測ベンチマークで一貫した最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-29T11:54:35Z) - Discovering Predictable Latent Factors for Time Series Forecasting [39.08011991308137]
我々は,観測可能な時系列によって示唆される本質的な潜伏因子を推定するための新しい枠組みを開発する。
予測可能性,充足性,識別性という3つの特性を導入し,これらの特性を強力な潜伏力学モデルを用いてモデル化する。
複数の実データに対する実験結果から, 時系列予測の手法の有効性が示唆された。
論文 参考訳(メタデータ) (2023-03-18T14:37:37Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z) - Mitigating Data Redundancy to Revitalize Transformer-based Long-Term Time Series Forecasting System [46.39662315849883]
本稿では,カリキュラム学習とメモリ駆動デコーダによる冗長性を緩和する新しいフレームワークであるCLMFormerを紹介する。
CLMFormerはTransformerベースのモデルを最大30%改善し、長距離予測の有効性を示している。
論文 参考訳(メタデータ) (2022-07-16T04:05:15Z) - DRAformer: Differentially Reconstructed Attention Transformer for
Time-Series Forecasting [7.805077630467324]
時系列予測は、機器ライフサイクル予測、天気予報、交通フロー予測など、多くの現実シナリオにおいて重要な役割を果たす。
最近の研究から、様々なトランスフォーマーモデルが時系列予測において顕著な結果を示したことが観察できる。
しかし、時系列予測タスクにおけるトランスフォーマーモデルの性能を制限する問題がまだ残っている。
論文 参考訳(メタデータ) (2022-06-11T10:34:29Z) - Multi-scale Attention Flow for Probabilistic Time Series Forecasting [68.20798558048678]
マルチスケールアテンション正規化フロー(MANF)と呼ばれる非自己回帰型ディープラーニングモデルを提案する。
我々のモデルは累積誤差の影響を回避し、時間の複雑さを増大させない。
本モデルは,多くの多変量データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-05-16T07:53:42Z) - TACTiS: Transformer-Attentional Copulas for Time Series [76.71406465526454]
時間変化量の推定は、医療や金融などの分野における意思決定の基本的な構成要素である。
本稿では,アテンションベースデコーダを用いて関節分布を推定する多元的手法を提案する。
本研究では,本モデルが実世界の複数のデータセットに対して最先端の予測を生成することを示す。
論文 参考訳(メタデータ) (2022-02-07T21:37:29Z) - Model-Attentive Ensemble Learning for Sequence Modeling [86.4785354333566]
シーケンスモデリング(MAES)のためのモデル・アテンティブ・アンサンブル・ラーニングを提案する。
MAESは、異なるシーケンスダイナミクスの専門家を専門とし、予測を適応的に重み付けるために、注目ベースのゲーティングメカニズムを利用する時系列の専門家の混合物です。
MAESが時系列シフトを受けるデータセットの人気シーケンスモデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2021-02-23T05:23:35Z) - Spatiotemporal Attention for Multivariate Time Series Prediction and
Interpretation [17.568599402858037]
最も重要な時間ステップと変数の同時学習のための時間的注意機構(STAM)。
結果: STAMは最先端の予測精度を維持しつつ,正確な解釈可能性の利点を提供する。
論文 参考訳(メタデータ) (2020-08-11T17:34:55Z) - Transformer Hawkes Process [79.16290557505211]
本稿では,長期的依存関係を捕捉する自己認識機構を利用したTransformer Hawkes Process (THP) モデルを提案する。
THPは、有意なマージンによる可能性と事象予測の精度の両方の観点から、既存のモデルより優れている。
本稿では、THPが関係情報を組み込む際に、複数の点過程を学習する際の予測性能の改善を実現する具体例を示す。
論文 参考訳(メタデータ) (2020-02-21T13:48:13Z) - Multivariate Probabilistic Time Series Forecasting via Conditioned
Normalizing Flows [8.859284959951204]
時系列予測は科学的・工学的な問題の基本である。
深層学習法はこの問題に適している。
多くの実世界のデータセットにおける標準メトリクスの最先端よりも改善されていることを示す。
論文 参考訳(メタデータ) (2020-02-14T16:16:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。