論文の概要: SegRNN: Segment Recurrent Neural Network for Long-Term Time Series
Forecasting
- arxiv url: http://arxiv.org/abs/2308.11200v1
- Date: Tue, 22 Aug 2023 05:23:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-23 13:45:02.406816
- Title: SegRNN: Segment Recurrent Neural Network for Long-Term Time Series
Forecasting
- Title(参考訳): SegRNN: 長期連続予測のためのセグメントリカレントニューラルネットワーク
- Authors: Shengsheng Lin, Weiwei Lin, Wentai Wu, Feiyu Zhao, Ruichao Mo, Haotong
Zhang
- Abstract要約: RNNベースの手法は、長期時系列予測ドメインにおいて課題に直面している。
このドメインの優位性はTransformerに移行し、CNNはアプローチしている。
LTSFタスクに対するRNNの繰り返し回数を削減するための2つの新しい手法を提案する。
- 参考スコア(独自算出の注目度): 5.885828775057383
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: RNN-based methods have faced challenges in the Long-term Time Series
Forecasting (LTSF) domain when dealing with excessively long look-back windows
and forecast horizons. Consequently, the dominance in this domain has shifted
towards Transformer, MLP, and CNN approaches. The substantial number of
recurrent iterations are the fundamental reasons behind the limitations of RNNs
in LTSF. To address these issues, we propose two novel strategies to reduce the
number of iterations in RNNs for LTSF tasks: Segment-wise Iterations and
Parallel Multi-step Forecasting (PMF). RNNs that combine these strategies,
namely SegRNN, significantly reduce the required recurrent iterations for LTSF,
resulting in notable improvements in forecast accuracy and inference speed.
Extensive experiments demonstrate that SegRNN not only outperforms SOTA
Transformer-based models but also reduces runtime and memory usage by more than
78%. These achievements provide strong evidence that RNNs continue to excel in
LTSF tasks and encourage further exploration of this domain with more RNN-based
approaches. The source code is coming soon.
- Abstract(参考訳): RNNベースの手法は、過度に長い振り返りウィンドウや予測水平線を扱う場合、LTSFドメインで困難に直面している。
その結果、この領域の優位性はTransformer、MLP、CNNアプローチへと移行した。
かなりの数の反復がltsfにおけるrnnの制限の背後にある基本的な理由である。
これらの課題に対処するため、我々はLTSFタスクにおけるRNNの反復回数を減らすための2つの新しい戦略を提案している。
これらの戦略を組み合わせたRNN、すなわちSegRNNはLTSFに必要な繰り返しイテレーションを大幅に削減し、予測精度と推論速度が大幅に向上した。
大規模な実験では、SegRNNはSOTA Transformerベースのモデルを上回るだけでなく、ランタイムとメモリ使用量を78%以上削減している。
これらの成果は、RNNがLTSFタスクを継続し続け、よりRNNベースのアプローチでこのドメインのさらなる探索を奨励する強い証拠となる。
ソースコードは近く公開される。
関連論文リスト
- Learning Long Sequences in Spiking Neural Networks [0.0]
スパイキングニューラルネットワーク(SNN)は、エネルギー効率の高い計算を可能にするために、脳からインスピレーションを得ている。
トランスフォーマーの効率的な代替品に対する近年の関心は、状態空間モデル(SSM)と呼ばれる最先端の繰り返しアーキテクチャの台頭をもたらした。
論文 参考訳(メタデータ) (2023-12-14T13:30:27Z) - Adaptive-saturated RNN: Remember more with less instability [2.191505742658975]
本研究では,2つのアプローチ間の飽和度を動的に調整する適応飽和RNN(asRNN)を提案する。
我々の実験は、いくつかの強力な競合相手と比較して、挑戦的なシーケンス学習ベンチマークにおけるasRNNの結果を奨励することを示した。
論文 参考訳(メタデータ) (2023-04-24T02:28:03Z) - Resurrecting Recurrent Neural Networks for Long Sequences [45.800920421868625]
リカレントニューラルネットワーク(RNN)は、長いシーケンスに対する高速な推論を提供するが、最適化が難しく、訓練が遅い。
深部状態空間モデル(SSM)は、最近、長いシーケンスモデリングタスクにおいて非常によく機能することが示されている。
本稿では,信号伝搬の標準的な引数を用いた深部RNNの設計により,長距離推論タスクにおける深部SSMの性能を回復できることを示す。
論文 参考訳(メタデータ) (2023-03-11T08:53:11Z) - An Improved Time Feedforward Connections Recurrent Neural Networks [3.0965505512285967]
リカレントニューラルネットワーク(RNN)は洪水予測や財務データ処理といった時間的問題に広く応用されている。
従来のRNNモデルは、厳密な時系列依存性のために勾配問題を増幅する。
勾配問題に対処するために、改良された時間フィードフォワード接続リカレントニューラルネットワーク(TFC-RNN)モデルが最初に提案された。
単一ゲートリカレントユニット(Single Gate Recurrent Unit, SGRU)と呼ばれる新しい細胞構造が提示され、RNNセルのパラメータ数が減少した。
論文 参考訳(メタデータ) (2022-11-03T09:32:39Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Spatial-Temporal-Fusion BNN: Variational Bayesian Feature Layer [77.78479877473899]
我々は,BNNを大規模モデルに効率的にスケールするための時空間BNNを設計する。
バニラBNNと比較して,本手法はトレーニング時間とパラメータ数を著しく削減し,BNNのスケールアップに有効である。
論文 参考訳(メタデータ) (2021-12-12T17:13:14Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Continual Learning in Recurrent Neural Networks [67.05499844830231]
リカレントニューラルネットワーク(RNN)を用いた逐次データ処理における連続学習手法の有効性を評価する。
RNNに弾性重み強化などの重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重
そこで本研究では,重み付け手法の性能が処理シーケンスの長さに直接的な影響を受けず,むしろ高動作メモリ要求の影響を受けていることを示す。
論文 参考訳(メタデータ) (2020-06-22T10:05:12Z) - Tensor train decompositions on recurrent networks [60.334946204107446]
マトリックス製品状態(MPS)テンソルトレインは、ストレージの削減と推論時の計算時間の観点から、MPOよりも魅力的な特徴を持つ。
理論解析により,MPSテンソル列車はLSTMネットワーク圧縮の最前線に置かれるべきであることを示す。
論文 参考訳(メタデータ) (2020-06-09T18:25:39Z) - Achieving Online Regression Performance of LSTMs with Simple RNNs [0.0]
本稿では,パラメータ数に線形時間を要する1次学習アルゴリズムを提案する。
SRNNが我々のアルゴリズムでトレーニングされている場合、LSTMと非常によく似た回帰性能を2~3倍の短いトレーニング時間で提供することを示す。
論文 参考訳(メタデータ) (2020-05-16T11:41:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。