論文の概要: Reservoir Computing with Generalized Readout based on Generalized Synchronization
- arxiv url: http://arxiv.org/abs/2405.14885v1
- Date: Fri, 3 May 2024 10:03:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-02 14:47:20.246563
- Title: Reservoir Computing with Generalized Readout based on Generalized Synchronization
- Title(参考訳): 一般化同期に基づく一般読み出し型貯留層計算
- Authors: Akane Ookubo, Masanobu Inubushi,
- Abstract要約: 貯留層コンピューティング(Reservoir computing)は、非線形力学を利用する機械学習フレームワークである。
本稿では,貯水池変数の非線形結合を含む一般化された読み出しを伴う新しい貯水池計算フレームワークを提案する。
数値実験により, 一般化された読み出しの導入は, 精度の大幅な向上と, 頑健さの予期せぬ向上につながることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reservoir computing is a machine learning framework that exploits nonlinear dynamics, exhibiting significant computational capabilities. One of the defining characteristics of reservoir computing is its low cost and straightforward training algorithm, i.e. only the readout, given by a linear combination of reservoir variables, is trained. Inspired by recent mathematical studies based on dynamical system theory, in particular generalized synchronization, we propose a novel reservoir computing framework with generalized readout, including a nonlinear combination of reservoir variables. The first crucial advantage of using the generalized readout is its mathematical basis for improving information processing capabilities. Secondly, it is still within a linear learning framework, which preserves the original strength of reservoir computing. In summary, the generalized readout is naturally derived from mathematical theory and allows the extraction of useful basis functions from reservoir dynamics without sacrificing simplicity. In a numerical study, we find that introducing the generalized readout leads to a significant improvement in accuracy and an unexpected enhancement in robustness for the short- and long-term prediction of Lorenz chaos, with a particular focus on how to harness low-dimensional reservoir dynamics. A novel way and its advantages for physical implementations of reservoir computing with generalized readout are briefly discussed.
- Abstract(参考訳): 貯留層コンピューティング(Reservoir computing)は、非線形力学を利用する機械学習フレームワークであり、重要な計算能力を示す。
貯水池計算の特徴の1つは、低コストで簡単な訓練アルゴリズム、すなわち、貯水池変数の線形結合によって与えられる読み出しのみを訓練することである。
動的システム理論に基づく最近の数学的研究,特に一般化された同期に着想を得て,貯水池変数の非線形結合を含む一般化された読み出しを伴う新しい貯水池計算フレームワークを提案する。
一般化された読み出しを用いた最初の重要な利点は、情報処理能力を改善するための数学的基礎である。
第二に、このフレームワークは依然として線形学習フレームワーク内にあり、貯水池コンピューティングの本来の強みを保っている。
要約すると、一般化された読み出しは自然に数学的理論から派生し、単純さを犠牲にすることなく貯水池の力学から有用な基底関数を抽出することができる。
数値計算において,一般化された読み出しの導入は,ローレンツカオスの短期的・長期的予測において,精度の大幅な向上と予期せぬ強靭性の向上につながり,特に低次元貯水池力学の活用に焦点が当てられている。
一般化された読み出しを伴う貯水池計算の物理実装に対する新しい方法とその利点を概説する。
関連論文リスト
- A Unified Framework for Neural Computation and Learning Over Time [56.44910327178975]
Hamiltonian Learningはニューラルネットワークを"時間とともに"学習するための新しい統合フレームワーク
i)外部ソフトウェアソルバを必要とせずに統合できる、(ii)フィードフォワードおよびリカレントネットワークにおける勾配に基づく学習の概念を一般化する、(iii)新しい視点で開放する、という微分方程式に基づいている。
論文 参考訳(メタデータ) (2024-09-18T14:57:13Z) - Stochastic Reservoir Computers [0.0]
貯水池計算では、貯水池のコンピュータ全体の異なる状態の数は、貯水池のハードウェアのサイズに比例して指数関数的にスケールすることができる。
ショットノイズは貯水池計算の性能に限界があるが,ノイズの影響が小さい場合,類似のハードウェアを持つ貯水池コンピュータに比べて性能が大幅に向上した。
論文 参考訳(メタデータ) (2024-05-20T21:26:00Z) - Universality conditions of unified classical and quantum reservoir computing [1.1510009152620668]
貯留層コンピューティング(Reservoir computing)は、計算神経科学と機械学習における多用途パラダイムである。
統一理論フレームワークを提案し、普遍性を確保するための準備の整った設定を提案する。
論文 参考訳(メタデータ) (2024-01-26T18:48:23Z) - Randomized Polar Codes for Anytime Distributed Machine Learning [66.46612460837147]
本稿では,低速な計算ノードに対して堅牢で,線形演算の近似計算と精度の両立が可能な分散コンピューティングフレームワークを提案する。
本稿では,復号化のための計算複雑性を低く保ちながら,実数値データを扱うための逐次復号アルゴリズムを提案する。
大規模行列乗算やブラックボックス最適化など,様々な文脈において,このフレームワークの潜在的な応用を実証する。
論文 参考訳(メタデータ) (2023-09-01T18:02:04Z) - Optimization of a Hydrodynamic Computational Reservoir through Evolution [58.720142291102135]
我々は,スタートアップが開発中の流体力学系のモデルと,計算貯水池としてインターフェースする。
我々は、進化探索アルゴリズムを用いて、読み出し時間と入力を波の振幅や周波数にどのようにマッピングするかを最適化した。
この貯水池システムに進化的手法を適用することで、手作業パラメータを用いた実装と比較して、XNORタスクの分離性が大幅に向上した。
論文 参考訳(メタデータ) (2023-04-20T19:15:02Z) - Infinite-dimensional reservoir computing [9.152759278163954]
インプット/アウトプットシステムの新しい概念クラスに対して,貯留層計算の近似と一般化境界が証明された。
本研究の結果は,完全実装可能なリカレントニューラルネットワークに基づく学習アルゴリズムであり,コンバージェンス保証が保証されている。
論文 参考訳(メタデータ) (2023-04-02T08:59:12Z) - Learning unseen coexisting attractors [0.0]
貯留層コンピューティング(Reservoir computing)は、動的システムの代理モデルを生成する機械学習アプローチである。
ここでは、異なる時間スケールと複数の共存する動的状態(トラクター)の両方を持つ力学系を学習する際の課題について研究する。
次世代貯水池コンピューティングアプローチでは、トレーニングデータが少ない$sim 1.7倍、短いウォームアップ時間が必要な$103倍、既存のアトラクタ特性を予測する上で、$sim 100times$高い精度を持つことを示す。
論文 参考訳(メタデータ) (2022-07-28T14:55:14Z) - Deep Archimedean Copulas [98.96141706464425]
ACNetは、構造的特性を強制する、新しい差別化可能なニューラルネットワークアーキテクチャである。
我々は、ACNetが共通のアルキメデスコピュラスを近似し、データに適合する可能性のある新しいコプラを生成することができることを示した。
論文 参考訳(メタデータ) (2020-12-05T22:58:37Z) - Relative gradient optimization of the Jacobian term in unsupervised deep
learning [9.385902422987677]
データを正しく記述した表現的確率モデルを学習することは、機械学習におけるユビキタスな問題である。
このタスクには深度モデルが広く使用されているが、その最大可能性に基づくトレーニングでは、ジャコビアンの対数行列式を推定する必要がある。
このようなニューラルネットワークの正確なトレーニングのための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-26T16:41:08Z) - Predictive Coding Approximates Backprop along Arbitrary Computation
Graphs [68.8204255655161]
我々は、コア機械学習アーキテクチャを予測的符号化に翻訳する戦略を開発する。
私たちのモデルは、挑戦的な機械学習ベンチマークのバックプロップと同等に機能します。
本手法は,ニューラルネットワークに標準機械学習アルゴリズムを直接実装できる可能性を高める。
論文 参考訳(メタデータ) (2020-06-07T15:35:47Z) - On dissipative symplectic integration with applications to
gradient-based optimization [77.34726150561087]
本稿では,離散化を体系的に実現する幾何学的枠組みを提案する。
我々は、シンプレクティックな非保守的、特に散逸的なハミルトン系への一般化が、制御された誤差まで収束率を維持することができることを示す。
論文 参考訳(メタデータ) (2020-04-15T00:36:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。