論文の概要: Residual Reservoir Memory Networks
- arxiv url: http://arxiv.org/abs/2508.09925v1
- Date: Wed, 13 Aug 2025 16:21:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 20:42:00.958902
- Title: Residual Reservoir Memory Networks
- Title(参考訳): 残留貯留層メモリネットワーク
- Authors: Matteo Pinna, Andrea Ceni, Claudio Gallicchio,
- Abstract要約: 本稿では,Residerual Reservoir Memory Networks (ResRMNs) と呼ばれる,Reservoir Computing (RC) パラダイムにおける未学習リカレントニューラルネットワーク(RNN)の新たなクラスを紹介する。
ResRMNは、線形メモリ貯水池と非線形貯水池を結合し、後者は、入力の長期的伝播を高めるための時間次元に沿った残差接続に基づいている。
- 参考スコア(独自算出の注目度): 4.434980301613741
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a novel class of untrained Recurrent Neural Networks (RNNs) within the Reservoir Computing (RC) paradigm, called Residual Reservoir Memory Networks (ResRMNs). ResRMN combines a linear memory reservoir with a non-linear reservoir, where the latter is based on residual orthogonal connections along the temporal dimension for enhanced long-term propagation of the input. The resulting reservoir state dynamics are studied through the lens of linear stability analysis, and we investigate diverse configurations for the temporal residual connections. The proposed approach is empirically assessed on time-series and pixel-level 1-D classification tasks. Our experimental results highlight the advantages of the proposed approach over other conventional RC models.
- Abstract(参考訳): 本稿では,Residual Reservoir Memory Networks (ResRMNs) と呼ばれる,Reservoir Computing (RC) パラダイムにおける未学習リカレントニューラルネットワーク (RNN) の新たなクラスを紹介する。
ResRMNは線形メモリ貯水池と非線形貯水池を結合し、後者は時間次元に沿った残留直交接続に基づいて入力の長期的伝播を増強する。
線形安定解析のレンズを用いて, 得られた貯留状態のダイナミクスについて検討し, 時間的残差接続の多様な構成について検討した。
提案手法は,時系列および画素レベルの1次元分類タスクに基づいて実験的に評価される。
実験の結果,従来のRCモデルと比較して,提案手法の利点が示された。
関連論文リスト
- Tailored minimal reservoir computing: on the bidirectional connection between nonlinearities in the reservoir and in data [0.0]
入力データにおける非線形性の度合いが貯水池コンピュータの最適設計にどのように影響するかを検討する。
調整可能な1つの非線形パラメータに最小のRCを還元することにより,貯水池の非線形性の度合いによって予測性能がどう変化するかを検討する。
実験の結果,貯水池の非線形性がデータに存在する非線形性と一致した場合に予測性能が最大になることがわかった。
論文 参考訳(メタデータ) (2025-04-24T12:47:21Z) - Universality of Real Minimal Complexity Reservoir [0.358439716487063]
貯留層計算(Reservoir Computing, RC)モデルは、その固定された非トレーニング可能な入力層と動的に結合された貯留層によって区別される。
Simple Cycle Reservoirs (SCR) は、制約の高い貯水池構造を持つRCモデルの特殊なクラスである。
実領域で動作するSCRは、減少するメモリを持つ時間不変の動的フィルタの普遍的な近似器である。
論文 参考訳(メタデータ) (2024-08-15T10:44:33Z) - Learning Low Dimensional State Spaces with Overparameterized Recurrent
Neural Nets [57.06026574261203]
我々は、長期記憶をモデル化できる低次元状態空間を学習するための理論的証拠を提供する。
実験は、線形RNNと非線形RNNの両方で低次元状態空間を学習することで、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2022-10-25T14:45:15Z) - Euler State Networks: Non-dissipative Reservoir Computing [3.55810827129032]
我々はEuSN(Euler State Network)と呼ばれる新しいReservoir Computing(RC)モデルを提案する。
我々の数学的解析は、結果のモデルが一元的有効スペクトル半径とゼロ局所リアプノフ指数に偏り、本質的に安定性の端近くで動作していることを示している。
時系列分類ベンチマークの結果は、EuSNがトレーニング可能なリカレントニューラルネットワークの精度と一致する(あるいは超える)ことを示唆している。
論文 参考訳(メタデータ) (2022-03-17T15:18:34Z) - Kernel-Based Smoothness Analysis of Residual Networks [85.20737467304994]
ResNets(Residual Networks)は、これらの強力なモダンアーキテクチャの中でも際立っている。
本稿では,2つのモデル,すなわちResNetsが勾配よりもスムーズな傾向を示す。
論文 参考訳(メタデータ) (2020-09-21T16:32:04Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Continual Learning in Recurrent Neural Networks [67.05499844830231]
リカレントニューラルネットワーク(RNN)を用いた逐次データ処理における連続学習手法の有効性を評価する。
RNNに弾性重み強化などの重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重
そこで本研究では,重み付け手法の性能が処理シーケンスの長さに直接的な影響を受けず,むしろ高動作メモリ要求の影響を受けていることを示す。
論文 参考訳(メタデータ) (2020-06-22T10:05:12Z) - Lipschitz Recurrent Neural Networks [100.72827570987992]
我々のリプシッツ再帰ユニットは、他の連続時間RNNと比較して、入力やパラメータの摂動に対してより堅牢であることを示す。
実験により,Lipschitz RNNは,ベンチマークタスクにおいて,既存のリカレントユニットよりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-06-22T08:44:52Z) - An Ode to an ODE [78.97367880223254]
我々は、O(d) 群上の行列フローに応じて主フローの時間依存パラメータが進化する ODEtoODE と呼ばれるニューラルODE アルゴリズムの新しいパラダイムを提案する。
この2つの流れのネストされたシステムは、訓練の安定性と有効性を提供し、勾配の消滅・爆発問題を確実に解決する。
論文 参考訳(メタデータ) (2020-06-19T22:05:19Z) - Sparsity in Reservoir Computing Neural Networks [3.55810827129032]
Reservoir Computing(RC)は、トレーニングの大幅な効率を特徴とするリカレントニューラルネットワークを設計するための戦略である。
本稿では,発達した時間表現の豊かさの観点から,RCネットワーク設計における空間性の役割を実証的に検討する。
論文 参考訳(メタデータ) (2020-06-04T15:38:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。