論文の概要: ARMA Block: A CNN-Based Autoregressive and Moving Average Module for Long-Term Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2509.10324v1
- Date: Fri, 12 Sep 2025 15:03:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-15 16:03:08.137838
- Title: ARMA Block: A CNN-Based Autoregressive and Moving Average Module for Long-Term Time Series Forecasting
- Title(参考訳): ARMA Block: 長期連続予測のためのCNNベースの自動回帰および移動平均モジュール
- Authors: Myung Jin Kim, YeongHyeon Park, Il Dong Yun,
- Abstract要約: 提案ブロックはARIMA(Auto-Regressive Integrated Average)モデルにインスパイアされている。
繰り返し多段階予測を必要とする従来のARIMAとは異なり、ブロックは直接多段階予測を行う。
このブロックは本質的に絶対位置情報を符号化しており、シーケンシャルモデルにおける位置埋め込みの軽量な代替としての可能性を示している。
- 参考スコア(独自算出の注目度): 3.0641475192265495
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a simple yet effective convolutional module for long-term time series forecasting. The proposed block, inspired by the Auto-Regressive Integrated Moving Average (ARIMA) model, consists of two convolutional components: one for capturing the trend (autoregression) and the other for refining local variations (moving average). Unlike conventional ARIMA, which requires iterative multi-step forecasting, the block directly performs multi-step forecasting, making it easily extendable to multivariate settings. Experiments on nine widely used benchmark datasets demonstrate that our method ARMA achieves competitive accuracy, particularly on datasets exhibiting strong trend variations, while maintaining architectural simplicity. Furthermore, analysis shows that the block inherently encodes absolute positional information, suggesting its potential as a lightweight replacement for positional embeddings in sequential models.
- Abstract(参考訳): 本稿では,長期連続予測のための簡易かつ効果的な畳み込みモジュールを提案する。
提案したブロックは,ARIMAモデルにインスパイアされた2つの畳み込み成分で構成され,その1つは傾向(自己回帰)を捉え,もう1つは局所的変動(移動平均)を補正する。
繰り返し多段階予測を必要とする従来のARIMAとは異なり、ブロックは直接多段階予測を実行し、多変量設定に容易に拡張できる。
9つの広く使用されているベンチマークデータセットの実験により、我々のARMAは、特に強い傾向変化を示すデータセットに対して、アーキテクチャの単純さを維持しながら、競争の正確性を達成することを示した。
さらに解析により、ブロックは本質的に絶対位置情報を符号化しており、シーケンシャルモデルにおける位置埋め込みの軽量な代替としての可能性を示している。
関連論文リスト
- VARMA-Enhanced Transformer for Time Series Forecasting [4.982130518684668]
VARMAformerは、古典的な時系列分析の原理で、クロスアテンションのみのフレームワークの効率を相乗化する新しいアーキテクチャである。
これらの古典的な洞察を現代のバックボーンに融合させることで、VARMAformerはグローバル、長距離の依存関係と局所的な統計構造の両方をキャプチャする。
論文 参考訳(メタデータ) (2025-09-05T03:32:51Z) - UmambaTSF: A U-shaped Multi-Scale Long-Term Time Series Forecasting Method Using Mamba [7.594115034632109]
本稿では,新しい時系列予測フレームワークであるUmambaTSFを提案する。
U字型エンコーダ・デコーダ多層パーセプトロン(MLP)のマルチスケール特徴抽出機能とMambaのロングシーケンス表現を統合する。
UmambaTSFは、広く使用されているベンチマークデータセットで最先端のパフォーマンスと優れた汎用性を達成する。
論文 参考訳(メタデータ) (2024-10-15T04:56:43Z) - Timer-XL: Long-Context Transformers for Unified Time Series Forecasting [67.83502953961505]
我々は時系列の統一予測のための因果変換器Timer-XLを提案する。
大規模な事前トレーニングに基づいて、Timer-XLは最先端のゼロショット性能を達成する。
論文 参考訳(メタデータ) (2024-10-07T07:27:39Z) - Unified Training of Universal Time Series Forecasting Transformers [104.56318980466742]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - Parsimony or Capability? Decomposition Delivers Both in Long-term Time Series Forecasting [46.63798583414426]
時系列予測(LTSF)は時系列分析において重要なフロンティアである。
本研究は, 分析的および実証的な証拠から, 分解が過剰なモデルインフレーションを包含する鍵であることを実証する。
興味深いことに、時系列データの本質的なダイナミクスに分解を合わせることで、提案モデルは既存のベンチマークより優れている。
論文 参考訳(メタデータ) (2024-01-22T13:15:40Z) - A novel decomposed-ensemble time series forecasting framework: capturing
underlying volatility information [6.590038231008498]
本稿では, 時系列予測のパラダイムを提案する。このパラダイムは, 分解と, 時系列の揺らぎ情報を取得する能力を統合するものである。
各サブモードの数値データとボラティリティ情報の両方を利用してニューラルネットワークを訓練する。
このネットワークはサブモデムの情報予測に長けており、全てのサブモデムの予測を集約して最終的な出力を生成する。
論文 参考訳(メタデータ) (2023-10-13T01:50:43Z) - TACTiS-2: Better, Faster, Simpler Attentional Copulas for Multivariate Time Series [57.4208255711412]
パウラ理論に基づいて,最近導入されたトランスフォーマーに基づく注目パウラ(TACTiS)の簡易な目的を提案する。
結果から,実世界の予測タスクにまたがって,このモデルのトレーニング性能が大幅に向上し,最先端のパフォーマンスが達成できることが示唆された。
論文 参考訳(メタデータ) (2023-10-02T16:45:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。