論文の概要: EnTransformer: A Deep Generative Transformer for Multivariate Probabilistic Forecasting
- arxiv url: http://arxiv.org/abs/2603.11909v1
- Date: Thu, 12 Mar 2026 13:25:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:26.102504
- Title: EnTransformer: A Deep Generative Transformer for Multivariate Probabilistic Forecasting
- Title(参考訳): EnTransformer:多変量確率予測のための深部生成変換器
- Authors: Rajdeep Pathak, Rahul Goswami, Madhurima Panja, Palash Ghosh, Tanujit Chakraborty,
- Abstract要約: 本研究では,EnTransformerを提案する。Engressionは条件分布をモデル化するための学習パラダイムであり,Transformerの表現型シーケンスモデリング機能を備えている。
提案したEnTransformerは、電気、交通、ソーラー、タクシー、KDD-cup、ウィキペディアのデータセットなど、多変量確率予測に広く利用されているベンチマークで評価する。
実験結果から,EnTransformerは高い校正確率予測を導出し,ベンチマークモデルより一貫して優れていた。
- 参考スコア(独自算出の注目度): 0.3262230127283452
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reliable uncertainty quantification is critical in multivariate time series forecasting problems arising in domains such as energy systems and transportation networks, among many others. Although Transformer-based architectures have recently achieved strong performance for sequence modeling, most probabilistic forecasting approaches rely on restrictive parametric likelihoods or quantile-based objectives. They can struggle to capture complex joint predictive distributions across multiple correlated time series. This work proposes EnTransformer, a deep generative forecasting framework that integrates engression, a stochastic learning paradigm for modeling conditional distributions, with the expressive sequence modeling capabilities of Transformers. The proposed approach injects stochastic noise into the model representation and optimizes an energy-based scoring objective to directly learn the conditional predictive distribution without imposing parametric assumptions. This design enables EnTransformer to generate coherent multivariate forecast trajectories while preserving Transformers' capacity to effectively model long-range temporal dependencies and cross-series interactions. We evaluate our proposed EnTransformer on several widely used benchmarks for multivariate probabilistic forecasting, including Electricity, Traffic, Solar, Taxi, KDD-cup, and Wikipedia datasets. Experimental results demonstrate that EnTransformer produces well-calibrated probabilistic forecasts and consistently outperforms the benchmark models.
- Abstract(参考訳): 信頼性の高い不確実性定量化は、エネルギーシステムや輸送ネットワークなどの領域で発生する問題を予測する多変量系列において重要である。
トランスフォーマーベースのアーキテクチャは、最近、シーケンスモデリングの強力な性能を達成したが、ほとんどの確率的予測手法は制限的なパラメトリックな可能性や量子的目的に依存している。
それらは、複数の相関時系列にまたがる複雑な共同予測分布を捉えるのに苦労する。
本研究では,EnTransformerを提案する。Engressionは条件分布をモデル化するための確率論的学習パラダイムであり,Transformerの表現型シーケンスモデリング機能を備えている。
提案手法は,モデル表現に確率ノイズを注入し,エネルギーに基づくスコアリング目標を最適化し,パラメトリックな仮定を課さずに条件付き予測分布を直接学習する。
この設計により、EnTransformerはトランスフォーマーのキャパシティを保ちながらコヒーレントな多変量予測トラジェクトリを生成することができ、長距離時間依存性とシリーズ間相互作用を効果的にモデル化することができる。
提案したEnTransformerは、電気、交通、ソーラー、タクシー、KDD-cup、ウィキペディアのデータセットなど、多変量確率予測に広く利用されているベンチマークで評価する。
実験結果から,EnTransformerは高い校正確率予測を導出し,ベンチマークモデルより一貫して優れていた。
関連論文リスト
- Diffusion-Inspired Reconfiguration of Transformers for Uncertainty Calibration [52.017716672255524]
プレトレーニングトランスにおける不確実性校正は、リスクに敏感なアプリケーションへの信頼性の高い展開において重要である。
本稿では,各特徴変換ブロックを確率的写像としてモデル化したトランスフォーマの拡散インスピレーションによる再構成を提案する。
本手法は既存の不確実性認識変換器と比較してキャリブレーションと予測精度が優れている。
論文 参考訳(メタデータ) (2026-02-09T17:24:47Z) - DiTS: Multimodal Diffusion Transformers Are Time Series Forecasters [50.43534351968113]
既存の生成時系列モデルは、時系列データの多次元特性にうまく対応していない。
動画生成にテキストガイダンスを組み込んだマルチモーダル拡散変換器に着想を得て,Diffusion Transformer for Time Series (DiTS)を提案する。
論文 参考訳(メタデータ) (2026-02-06T10:48:13Z) - Transformers Simulate MLE for Sequence Generation in Bayesian Networks [18.869174453242383]
In-context maximum max estimation (MLE) に基づくベイズネットワークにおける変圧器の自己回帰生成機能について検討する。
ベイジアンネットワークの条件確率を文脈に応じて推定できる単純な変圧器モデルが存在することを実証する。
さらに、このような変圧器が理論上存在するだけでなく、訓練を通じて効果的に得られることを、広範な実験で実証する。
論文 参考訳(メタデータ) (2025-01-05T13:56:51Z) - Ister: Inverted Seasonal-Trend Decomposition Transformer for Explainable Multivariate Time Series Forecasting [10.32586981170693]
Inverted Seasonal-Trend Decomposition Transformer (Ister)
本稿では,解釈可能性,計算効率,予測精度を向上させる新しいDotアテンション機構を提案する。
Isterはコンポーネントのコントリビューションを直感的に視覚化し、モデルの意思決定プロセスに光を流し、予測結果の透明性を高める。
論文 参考訳(メタデータ) (2024-12-25T06:37:19Z) - Timer-XL: Long-Context Transformers for Unified Time Series Forecasting [67.83502953961505]
我々は時系列の統一予測のための因果変換器Timer-XLを提案する。
大規模な事前トレーニングに基づいて、Timer-XLは最先端のゼロショット性能を達成する。
論文 参考訳(メタデータ) (2024-10-07T07:27:39Z) - PRformer: Pyramidal Recurrent Transformer for Multivariate Time Series Forecasting [82.03373838627606]
Transformerアーキテクチャにおける自己保持機構は、時系列予測において時間順序を符号化するために位置埋め込みを必要とする。
この位置埋め込みへの依存は、トランスフォーマーの時間的シーケンスを効果的に表現する能力を制限している、と我々は主張する。
本稿では,Prepreを標準的なTransformerエンコーダと統合し,様々な実世界のデータセット上での最先端性能を示す。
論文 参考訳(メタデータ) (2024-08-20T01:56:07Z) - Stecformer: Spatio-temporal Encoding Cascaded Transformer for
Multivariate Long-term Time Series Forecasting [11.021398675773055]
本稿では,特徴抽出とターゲット予測の観点から,問題の完全な解決法を提案する。
抽出のために,半適応グラフを含む効率的な時間的符号化抽出器を設計し,十分な時間的情報を取得する。
予測のために、異なる間隔間の相関を強化するためにカスケードデ予測器(CDP)を提案する。
論文 参考訳(メタデータ) (2023-05-25T13:00:46Z) - Probabilistic Decomposition Transformer for Time Series Forecasting [13.472690692157164]
本稿では,トランスフォーマと条件付き生成モデルを組み合わせた確率分解変換器モデルを提案する。
Transformerは、時間パターンを学習し、主要な確率予測を実装するために使用される。
条件生成モデルは、非自己回帰的階層的確率予測を達成するために使用される。
論文 参考訳(メタデータ) (2022-10-31T15:22:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。