論文の概要: Simple Feedfoward Neural Networks are Almost All You Need for Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2503.23621v1
- Date: Sun, 30 Mar 2025 22:56:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-01 19:35:57.21303
- Title: Simple Feedfoward Neural Networks are Almost All You Need for Time Series Forecasting
- Title(参考訳): シンプルなフィードフォワードニューラルネットワークは、時系列予測に必要なもの
- Authors: Fan-Keng Sun, Yu-Cheng Wu, Duane S. Boning,
- Abstract要約: 単純なフィードフォワードニューラルネットワーク(SFNN)は、最先端のモデルと同等、あるいはそれ以上のパフォーマンスを達成可能であることを示す。
また、重要な設計選択についても検討し、インフォームドな意思決定に関するガイドラインを提供します。
- 参考スコア(独自算出の注目度): 9.131971095306323
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time series data are everywhere -- from finance to healthcare -- and each domain brings its own unique complexities and structures. While advanced models like Transformers and graph neural networks (GNNs) have gained popularity in time series forecasting, largely due to their success in tasks like language modeling, their added complexity is not always necessary. In our work, we show that simple feedforward neural networks (SFNNs) can achieve performance on par with, or even exceeding, these state-of-the-art models, while being simpler, smaller, faster, and more robust. Our analysis indicates that, in many cases, univariate SFNNs are sufficient, implying that modeling interactions between multiple series may offer only marginal benefits. Even when inter-series relationships are strong, a basic multivariate SFNN still delivers competitive results. We also examine some key design choices and offer guidelines on making informed decisions. Additionally, we critique existing benchmarking practices and propose an improved evaluation protocol. Although SFNNs may not be optimal for every situation (hence the ``almost'' in our title) they serve as a strong baseline that future time series forecasting methods should always be compared against.
- Abstract(参考訳): 時系列データは金融から医療まで至るところにあり、それぞれのドメインは独自の複雑さと構造をもたらしています。
TransformerやGraph Neural Network(GNN)といった先進的なモデルが時系列予測で人気を博している一方で、言語モデリングのようなタスクの成功が主な理由として、複雑性の追加は必ずしも必要ではない。
私たちの研究では、シンプルなフィードフォワードニューラルネットワーク(SFNN)が、よりシンプルで小さく、より高速で、より堅牢で、これらの最先端モデルに匹敵する、あるいはそれ以上のパフォーマンスを達成できることが示されています。
我々の分析は、多くの場合、単変量SFNNは十分であり、複数のシリーズ間の相互作用をモデル化することは、限界的な利益しか得られないことを示している。
シリーズ間の関係が強くても、基本的な多変量SFNNは競争力のある結果をもたらす。
また、重要な設計選択についても検討し、インフォームドな意思決定に関するガイドラインを提供します。
さらに,既存のベンチマーク手法を批判し,改良された評価プロトコルを提案する。
SFNNはあらゆる状況において最適ではないかもしれないが(この場合はタイトルの‘almost’)、将来の時系列予測手法を常に比較すべきという強いベースラインとして機能する。
関連論文リスト
- Towards Generalisable Time Series Understanding Across Domains [10.350643783811174]
時系列の不均一性を扱うために特別に設計された新しい事前学習パラダイムを導入する。
本稿では、学習可能なドメインシグネチャ、二重マスキング戦略、正規化相互相関損失を持つトークンサを提案する。
私たちのコードと事前訓練されたウェイトはhttps://www.oetu.com/oetu/otis.comで公開されています。
論文 参考訳(メタデータ) (2024-10-09T17:09:30Z) - Context Neural Networks: A Scalable Multivariate Model for Time Series Forecasting [5.5711773076846365]
実世界の時系列は、しばしば孤立して取得できない複雑な相互依存性を示す。
本稿では,時系列モデルに関連性のある文脈洞察を付加する,効率的な線形複雑化手法であるContext Neural Networkを紹介する。
論文 参考訳(メタデータ) (2024-05-12T00:21:57Z) - Bayesian Neural Networks with Domain Knowledge Priors [52.80929437592308]
ドメイン知識の一般的な形式をBNNに組み込むためのフレームワークを提案する。
提案したドメイン知識を用いたBNNは,標準知識のBNNよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-02-20T22:34:53Z) - Adaptive Dependency Learning Graph Neural Networks [5.653058780958551]
本稿では,ニューラルネットワークと統計構造学習モデルを組み合わせたハイブリッドアプローチを提案する。
提案手法は,事前定義された依存性グラフを使わずに,実世界のベンチマークデータセットを用いて性能を著しく向上させる。
論文 参考訳(メタデータ) (2023-12-06T20:56:23Z) - TACTiS-2: Better, Faster, Simpler Attentional Copulas for Multivariate Time Series [57.4208255711412]
パウラ理論に基づいて,最近導入されたトランスフォーマーに基づく注目パウラ(TACTiS)の簡易な目的を提案する。
結果から,実世界の予測タスクにまたがって,このモデルのトレーニング性能が大幅に向上し,最先端のパフォーマンスが達成できることが示唆された。
論文 参考訳(メタデータ) (2023-10-02T16:45:19Z) - Contextualizing MLP-Mixers Spatiotemporally for Urban Data Forecast at Scale [54.15522908057831]
本稿では,STTD予測を大規模に行うためのコンピュータ・ミクサーの適応版を提案する。
我々の結果は、この単純な効率の良いソリューションが、いくつかのトラフィックベンチマークでテストした場合、SOTAベースラインに匹敵する可能性があることを驚くほど示している。
本研究は, 実世界のSTTD予測において, 簡便な有効モデルの探索に寄与する。
論文 参考訳(メタデータ) (2023-07-04T05:19:19Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Online Evolutionary Neural Architecture Search for Multivariate
Non-Stationary Time Series Forecasting [72.89994745876086]
本研究は、オンラインニューロ進化に基づくニューラルアーキテクチャサーチ(ONE-NAS)アルゴリズムを提案する。
ONE-NASは、オンライン予測タスクのためにリカレントニューラルネットワーク(RNN)を自動設計し、動的にトレーニングする新しいニューラルネットワーク探索手法である。
その結果、ONE-NASは従来の統計時系列予測法よりも優れていた。
論文 参考訳(メタデータ) (2023-02-20T22:25:47Z) - Pre-training Enhanced Spatial-temporal Graph Neural Network for
Multivariate Time Series Forecasting [13.441945545904504]
スケーラブルな時系列事前学習モデル(STEP)によりSTGNNが拡張される新しいフレームワークを提案する。
具体的には、非常に長期の歴史時系列から時間パターンを効率的に学習するための事前学習モデルを設計する。
我々のフレームワークは下流のSTGNNを著しく強化することができ、事前学習モデルは時間パターンを適切にキャプチャする。
論文 参考訳(メタデータ) (2022-06-18T04:24:36Z) - Self-Ensembling GAN for Cross-Domain Semantic Segmentation [107.27377745720243]
本稿では,セマンティックセグメンテーションのためのクロスドメインデータを利用した自己理解型生成逆数ネットワーク(SE-GAN)を提案する。
SE-GANでは、教師ネットワークと学生ネットワークは、意味分節マップを生成するための自己組織化モデルを構成する。
その単純さにもかかわらず、SE-GANは敵の訓練性能を大幅に向上させ、モデルの安定性を高めることができる。
論文 参考訳(メタデータ) (2021-12-15T09:50:25Z) - Connecting the Dots: Multivariate Time Series Forecasting with Graph
Neural Networks [91.65637773358347]
多変量時系列データに特化して設計された汎用グラフニューラルネットワークフレームワークを提案する。
グラフ学習モジュールを用いて,変数間の一方向関係を自動的に抽出する。
提案手法は,4つのベンチマークデータセットのうち3つにおいて,最先端のベースライン手法よりも優れている。
論文 参考訳(メタデータ) (2020-05-24T04:02:18Z) - Zero-shot and few-shot time series forecasting with ordinal regression
recurrent neural networks [17.844338213026976]
リカレントニューラルネットワーク(RNN)は、いくつかのシーケンシャルな学習タスクにおいて最先端である。
本稿では,多くの量子化された時系列の空間上に埋め込まれた共有特徴を学習することにより,この問題に直接対処する新しいRNNモデルを提案する。
これにより、トレーニングデータが少ない場合であっても、RNNフレームワークが不適切な時系列を正確かつ確実に予測できることを示す。
論文 参考訳(メタデータ) (2020-03-26T21:33:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。