論文の概要: Sequential Reservoir Computing for Efficient High-Dimensional Spatiotemporal Forecasting
- arxiv url: http://arxiv.org/abs/2601.00172v1
- Date: Thu, 01 Jan 2026 02:24:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-05 15:04:33.29349
- Title: Sequential Reservoir Computing for Efficient High-Dimensional Spatiotemporal Forecasting
- Title(参考訳): 効率的な高次元時空間予測のための逐次貯留層計算
- Authors: Ata Akbari Asanjan, Filip Wudarski, Daniel O'Connor, Shaun Geaney, Elena Strbac, P. Aaron Lott, Davide Venturelli,
- Abstract要約: Reservoir Computing (RC) は、バックプロパゲーションを固定された時相読み出し最適化に置き換えることで課題を軽減する。
本稿では,大規模貯水池を小さな層に分割する逐次貯留層計算(Sequential Reservoir Computing,Sequential RC)アーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 1.5313142881179707
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Forecasting high-dimensional spatiotemporal systems remains computationally challenging for recurrent neural networks (RNNs) and long short-term memory (LSTM) models due to gradient-based training and memory bottlenecks. Reservoir Computing (RC) mitigates these challenges by replacing backpropagation with fixed recurrent layers and a convex readout optimization, yet conventional RC architectures still scale poorly with input dimensionality. We introduce a Sequential Reservoir Computing (Sequential RC) architecture that decomposes a large reservoir into a series of smaller, interconnected reservoirs. This design reduces memory and computational costs while preserving long-term temporal dependencies. Using both low-dimensional chaotic systems (Lorenz63) and high-dimensional physical simulations (2D vorticity and shallow-water equations), Sequential RC achieves 15-25% longer valid forecast horizons, 20-30% lower error metrics (SSIM, RMSE), and up to three orders of magnitude lower training cost compared to LSTM and standard RNN baselines. The results demonstrate that Sequential RC maintains the simplicity and efficiency of conventional RC while achieving superior scalability for high-dimensional dynamical systems. This approach provides a practical path toward real-time, energy-efficient forecasting in scientific and engineering applications.
- Abstract(参考訳): 高次元時空間システムの予測は、勾配に基づくトレーニングとメモリボトルネックのため、リカレントニューラルネットワーク(RNN)と長期短期記憶(LSTM)モデルで計算的に困難である。
Reservoir Computing (RC) は、バックプロパゲーションを固定されたリカレント層に置き換え、コンベックスの読み出し最適化によってこれらの課題を軽減するが、従来のRCアーキテクチャは入力次元ではまだ不十分である。
本稿では,大規模貯水池を小型で相互接続した貯水池に分割する逐次貯水池計算(Sequential Reservoir Computing,Sequential RC)アーキテクチャを提案する。
この設計は、長期の時間的依存を保ちながら、メモリと計算コストを削減する。
低次元カオスシステム (Lorenz63) と高次元物理シミュレーション (2次元渦性と浅水方程式) の両方を用いて、Sequential RCは15-25%の有効予測地平線、20-30%のエラーメトリクス(SSIM, RMSE)、LSTMおよび標準RNNベースラインに比べて最大3桁のトレーニングコストを達成している。
その結果、逐次RCは従来のRCの単純さと効率を保ちつつ、高次元力学系において優れたスケーラビリティを実現していることが示された。
このアプローチは、科学や工学の応用において、リアルタイムでエネルギー効率の高い予測への実践的な道筋を提供する。
関連論文リスト
- The Curious Case of In-Training Compression of State Space Models [49.819321766705514]
ステートスペースモデル(SSM)は、並列化可能なトレーニングと高速推論の両方を提供する。
鍵となる設計上の課題は、表現力の最大化と計算負荷の制限の間の適切なバランスを打つことだ。
我々のアプローチである textscCompreSSM はリニアリカレントユニットのような線形時間不変SSMに適用されるが、選択モデルにも拡張可能である。
論文 参考訳(メタデータ) (2025-10-03T09:02:33Z) - CR-Net: Scaling Parameter-Efficient Training with Cross-Layer Low-Rank Structure [8.92064131103945]
層間活性化残差が低ランク特性を持つという発見に触発された,CR-Net は革新的なフレームワークである。
CR-Netは最先端の低ランクフレームワークを一貫して上回り、計算資源が少なく、メモリも少ない。
論文 参考訳(メタデータ) (2025-09-23T13:43:02Z) - Structuring Multiple Simple Cycle Reservoirs with Particle Swarm Optimization [4.452666723220885]
Reservoir Computing (RC)は、リカレントニューラルネットワーク(RNN)から導かれる時間効率の計算パラダイムである。
本稿では,Echo State Networks (ESNs)を拡張したマルチ・リザーバ・フレームワークであるMultiple Simple Cycle Reservoirs (MSCRs)を紹介する。
粒子群最適化 (PSO) を用いたMSCRの最適化は, 既存の多貯留層モデルよりも優れており, より低次元状態空間での競合予測性能を実現することが実証された。
論文 参考訳(メタデータ) (2025-04-06T12:25:40Z) - Fast Training of Recurrent Neural Networks with Stationary State Feedbacks [48.22082789438538]
リカレントニューラルネットワーク(RNN)は最近、Transformerよりも強力なパフォーマンスと高速な推論を実証している。
BPTTを固定勾配フィードバック機構で置き換える新しい手法を提案する。
論文 参考訳(メタデータ) (2025-03-29T14:45:52Z) - Universality of Real Minimal Complexity Reservoir [0.358439716487063]
貯留層計算(Reservoir Computing, RC)モデルは、その固定された非トレーニング可能な入力層と動的に結合された貯留層によって区別される。
Simple Cycle Reservoirs (SCR) は、制約の高い貯水池構造を持つRCモデルの特殊なクラスである。
実領域で動作するSCRは、減少するメモリを持つ時間不変の動的フィルタの普遍的な近似器である。
論文 参考訳(メタデータ) (2024-08-15T10:44:33Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - Deep Cellular Recurrent Network for Efficient Analysis of Time-Series
Data with Spatial Information [52.635997570873194]
本研究では,空間情報を用いた複雑な多次元時系列データを処理するための新しいディープセルリカレントニューラルネットワーク(DCRNN)アーキテクチャを提案する。
提案するアーキテクチャは,文献に比較して,学習可能なパラメータをかなり少なくしつつ,最先端の性能を実現している。
論文 参考訳(メタデータ) (2021-01-12T20:08:18Z) - Model-Size Reduction for Reservoir Computing by Concatenating Internal
States Through Time [2.6872737601772956]
Reservoir Computing(RC)は、データから複雑な時系列を非常に高速に学習できる機械学習アルゴリズムである。
エッジコンピューティングにRCを実装するためには,RCに必要な計算資源の削減が重要である。
本研究では, 貯水池の過去又は漂流状態を現時点の出力層に投入することにより, 貯水池の規模を小さくする手法を提案する。
論文 参考訳(メタデータ) (2020-06-11T06:11:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。