論文の概要: ParalESN: Enabling parallel information processing in Reservoir Computing
- arxiv url: http://arxiv.org/abs/2601.22296v1
- Date: Thu, 29 Jan 2026 20:18:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.046824
- Title: ParalESN: Enabling parallel information processing in Reservoir Computing
- Title(参考訳): ParalESN: 貯留層コンピューティングにおける並列情報処理の実現
- Authors: Matteo Pinna, Giacomo Lagomarsini, Andrea Ceni, Claudio Gallicchio,
- Abstract要約: 貯留層コンピューティングは、時間処理の効率的なパラダイムとして確立されている。
この研究は、これらの制限に対処するためにParallel Echo State Network (ParalESN)を導入している。
ParalESNは、複素空間における対角線再帰に基づく高次元かつ効率的な貯水池の構築を可能にする。
- 参考スコア(独自算出の注目度): 10.601079644990504
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reservoir Computing (RC) has established itself as an efficient paradigm for temporal processing. However, its scalability remains severely constrained by (i) the necessity of processing temporal data sequentially and (ii) the prohibitive memory footprint of high-dimensional reservoirs. In this work, we revisit RC through the lens of structured operators and state space modeling to address these limitations, introducing Parallel Echo State Network (ParalESN). ParalESN enables the construction of high-dimensional and efficient reservoirs based on diagonal linear recurrence in the complex space, enabling parallel processing of temporal data. We provide a theoretical analysis demonstrating that ParalESN preserves the Echo State Property and the universality guarantees of traditional Echo State Networks while admitting an equivalent representation of arbitrary linear reservoirs in the complex diagonal form. Empirically, ParalESN matches the predictive accuracy of traditional RC on time series benchmarks, while delivering substantial computational savings. On 1-D pixel-level classification tasks, ParalESN achieves competitive accuracy with fully trainable neural networks while reducing computational costs and energy consumption by orders of magnitude. Overall, ParalESN offers a promising, scalable, and principled pathway for integrating RC within the deep learning landscape.
- Abstract(参考訳): 貯留層計算(Reservoir Computing, RC)は、時間処理の効率的なパラダイムとして確立されている。
しかし、そのスケーラビリティは依然として厳しく制約されている。
一 時間的データを順次かつ順次に処理することの必要性
(二)高次元貯水池の禁止メモリフットプリント
本研究では,これらの制約に対処するため,構造化演算子のレンズと状態空間モデリングを用いてRCを再検討し,Parallel Echo State Network (ParalESN)を導入した。
ParalESNは、複素空間における対角線リカレンスに基づく高次元かつ効率的な貯水池の構築を可能にし、時間データの並列処理を可能にする。
本稿では,ParalESNがEcho状態特性と従来のEcho状態ネットワークの普遍性を保証するとともに,複素対角形の任意の線形貯水池の等価表現を認めていることを示す理論的解析を行う。
ParalESNは、時系列のベンチマークで従来のRCの予測精度とよく一致し、計算量を大幅に削減する。
1次元レベルの分類タスクでは、ParalESNは完全なトレーニング可能なニューラルネットワークと競合する精度を達成し、計算コストとエネルギー消費を桁違いに削減する。
ParalESNは全体として、ディープラーニングのランドスケープにRCを統合するための、有望でスケーラブルで原則化されたパスを提供する。
関連論文リスト
- Sequential Reservoir Computing for Efficient High-Dimensional Spatiotemporal Forecasting [1.5313142881179707]
Reservoir Computing (RC) は、バックプロパゲーションを固定された時相読み出し最適化に置き換えることで課題を軽減する。
本稿では,大規模貯水池を小さな層に分割する逐次貯留層計算(Sequential Reservoir Computing,Sequential RC)アーキテクチャを提案する。
論文 参考訳(メタデータ) (2026-01-01T02:24:56Z) - Recurrent Stochastic Configuration Networks with Incremental Blocks [0.0]
リカレント・コンフィグレーション・ネットワーク(RSCN)は、順序の不確実性を伴う非線形力学系のモデリングにおいて、将来性を示す。
本稿では,ブロックインクリメントを持つブロックRCCN(BRSCN)を開発した。
BRSCNは建設中に複数の貯水池ノード(貯水池)を同時に追加することができる。
論文 参考訳(メタデータ) (2024-11-18T05:58:47Z) - Universality of Real Minimal Complexity Reservoir [0.358439716487063]
貯留層計算(Reservoir Computing, RC)モデルは、その固定された非トレーニング可能な入力層と動的に結合された貯留層によって区別される。
Simple Cycle Reservoirs (SCR) は、制約の高い貯水池構造を持つRCモデルの特殊なクラスである。
実領域で動作するSCRは、減少するメモリを持つ時間不変の動的フィルタの普遍的な近似器である。
論文 参考訳(メタデータ) (2024-08-15T10:44:33Z) - TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals [58.865901821451295]
本稿では,新しい2ストリーム機能融合 "Tensor-Convolution and Convolution-Transformer Network" (TCCT-Net) アーキテクチャを提案する。
時間空間領域における意味のあるパターンをよりよく学習するために、ハイブリッド畳み込み変換器を統合する「CT」ストリームを設計する。
並行して、時間周波数領域からリッチなパターンを効率的に抽出するために、連続ウェーブレット変換(CWT)を用いて情報を2次元テンソル形式で表現する「TC」ストリームを導入する。
論文 参考訳(メタデータ) (2024-04-15T06:01:48Z) - NAF: Neural Attenuation Fields for Sparse-View CBCT Reconstruction [79.13750275141139]
本稿では,スパースビューCBCT再構成のための新規かつ高速な自己教師型ソリューションを提案する。
所望の減衰係数は、3次元空間座標の連続関数として表現され、完全に接続されたディープニューラルネットワークによってパラメータ化される。
ハッシュ符号化を含む学習ベースのエンコーダが採用され、ネットワークが高周波の詳細をキャプチャするのに役立つ。
論文 参考訳(メタデータ) (2022-09-29T04:06:00Z) - Parallel Spatio-Temporal Attention-Based TCN for Multivariate Time
Series Prediction [4.211344046281808]
予測ウィンドウの拡張を支援するために注意を払っているリカレントニューラルネットワークは、このタスクの最先端技術である。
それらの消失する勾配、短い記憶、シリアルアーキテクチャは、複雑なデータによる長距離予測にRNNを根本的に不適当にしている、と我々は主張する。
そこで我々は,PSTA-TCNというフレームワークを提案する。これは並列時間的注意機構を組み合わして,動的内部相関を積み重ねたTCNバックボーンから抽出する。
論文 参考訳(メタデータ) (2022-03-02T09:27:56Z) - Deep Cellular Recurrent Network for Efficient Analysis of Time-Series
Data with Spatial Information [52.635997570873194]
本研究では,空間情報を用いた複雑な多次元時系列データを処理するための新しいディープセルリカレントニューラルネットワーク(DCRNN)アーキテクチャを提案する。
提案するアーキテクチャは,文献に比較して,学習可能なパラメータをかなり少なくしつつ,最先端の性能を実現している。
論文 参考訳(メタデータ) (2021-01-12T20:08:18Z) - A Convergence Theory Towards Practical Over-parameterized Deep Neural
Networks [56.084798078072396]
ネットワーク幅と収束時間の両方で既知の理論境界を大幅に改善することにより、理論と実践のギャップを埋める一歩を踏み出します。
本研究では, サンプルサイズが2次幅で, 両者の時間対数で線形なネットワークに対して, 地球最小値への収束が保証されていることを示す。
私たちの分析と収束境界は、いつでも合理的なサイズの同等のRELUネットワークに変換できる固定アクティベーションパターンを備えたサロゲートネットワークの構築によって導出されます。
論文 参考訳(メタデータ) (2021-01-12T00:40:45Z) - Exploiting Multiple Timescales in Hierarchical Echo State Networks [0.0]
エコー状態ネットワーク(ESN)は、線形出力重みのトレーニングのみを必要とする貯水池コンピューティングの強力な形態である。
ここでは,貯水池を2つの小さな貯水池に分割した階層型esnの時間スケールを考察する。
論文 参考訳(メタデータ) (2021-01-11T22:33:17Z) - Accelerating Feedforward Computation via Parallel Nonlinear Equation
Solving [106.63673243937492]
ニューラルネットワークの評価や自己回帰モデルからのサンプリングなどのフィードフォワード計算は、機械学習においてユビキタスである。
本稿では,非線形方程式の解法としてフィードフォワード計算の課題を定式化し,ジャコビ・ガウス・シーデル固定点法とハイブリッド法を用いて解を求める。
提案手法は, 並列化可能な繰り返し回数の削減(あるいは等値化)により, 元のフィードフォワード計算と全く同じ値が与えられることを保証し, 十分な並列化計算能力を付与する。
論文 参考訳(メタデータ) (2020-02-10T10:11:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。