論文の概要: Forecasting Using Reservoir Computing: The Role of Generalized
Synchronization
- arxiv url: http://arxiv.org/abs/2102.08930v2
- Date: Sun, 28 Feb 2021 00:50:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-05 00:30:32.463757
- Title: Forecasting Using Reservoir Computing: The Role of Generalized
Synchronization
- Title(参考訳): 貯留層計算による予測:一般化同期の役割
- Authors: Jason A. Platt, Adrian Wong, Randall Clark, Stephen G. Penny, and
Henry D. I. Abarbanel
- Abstract要約: 貯留層コンピュータ(RC)は、時系列データを予測するために用いられるリカレントニューラルネットワーク(RNN)の一種である。
本稿では,一般化同期(GS)に基づくアーキテクチャとRCのハイパーパラメータの設計と評価の方向性を示す手法を提案する。
- 参考スコア(独自算出の注目度): 1.4061923016403017
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reservoir computers (RC) are a form of recurrent neural network (RNN) used
for forecasting time series data. As with all RNNs, selecting the
hyperparameters presents a challenge when training on new inputs. We present a
method based on generalized synchronization (GS) that gives direction in
designing and evaluating the architecture and hyperparameters of a RC. The
'auxiliary method' for detecting GS provides a pre-training test that guides
hyperparameter selection. Furthermore, we provide a metric for a "well trained"
RC using the reproduction of the input system's Lyapunov exponents.
- Abstract(参考訳): 貯留層コンピュータ(Reservoir computer、RC)は、時系列データの予測に使用されるリカレントニューラルネットワーク(RNN)の一種である。
すべてのRNNと同様に、ハイパーパラメータを選択することは、新しい入力をトレーニングする際の課題である。
本稿では,一般化同期(GS)に基づくRCのアーキテクチャとハイパーパラメータの設計と評価の方向性を示す手法を提案する。
GSを検出するための「補助的方法」は、ハイパーパラメータの選択をガイドする事前トレーニングテストを提供する。
さらに、入力システムのリアプノフ指数の再現を用いた「よく訓練された」RCの計量を提供する。
関連論文リスト
- Recurrent Stochastic Configuration Networks for Temporal Data Analytics [3.8719670789415925]
本稿では,問題解決のためのコンフィグレーションネットワーク(RSCN)のリカレントバージョンを開発する。
我々は、初期RCCNモデルを構築し、その後、オンラインで出力重みを更新する。
数値的な結果は,提案したRCCNが全データセットに対して良好に動作することを示す。
論文 参考訳(メタデータ) (2024-06-21T03:21:22Z) - Universal Approximation of Linear Time-Invariant (LTI) Systems through RNNs: Power of Randomness in Reservoir Computing [19.995241682744567]
貯留層計算(Reservoir Computing, RC)は、リカレントウェイトがランダム化され、トレーニングされていない特別なRNNである。
RCは一般線形時間不変系(LTI)を普遍的に近似できることを示す。
論文 参考訳(メタデータ) (2023-08-04T17:04:13Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Learning to Learn with Generative Models of Neural Network Checkpoints [71.06722933442956]
ニューラルネットワークのチェックポイントのデータセットを構築し,パラメータの生成モデルをトレーニングする。
提案手法は,幅広い損失プロンプトに対するパラメータの生成に成功している。
我々は、教師付きおよび強化学習における異なるニューラルネットワークアーキテクチャとタスクに本手法を適用した。
論文 参考訳(メタデータ) (2022-09-26T17:59:58Z) - VQ-T: RNN Transducers using Vector-Quantized Prediction Network States [52.48566999668521]
本稿では,RNNトランスデューサの予測ネットワークにおけるベクトル量子化長短期記憶単位を提案する。
ASRネットワークと協調して離散表現を訓練することにより、格子生成のために仮説を積極的にマージすることができる。
提案するVQ RNNトランスデューサは,通常の予測ネットワークを持つトランスデューサよりもASR性能が向上することを示す。
論文 参考訳(メタデータ) (2022-08-03T02:45:52Z) - Pretraining Graph Neural Networks for few-shot Analog Circuit Modeling
and Design [68.1682448368636]
本稿では、新しい未知のトポロジや未知の予測タスクに適応可能な回路表現を学習するための教師付き事前学習手法を提案する。
異なる回路の変動位相構造に対処するため、各回路をグラフとして記述し、グラフニューラルネットワーク(GNN)を用いてノード埋め込みを学習する。
出力ノード電圧の予測における事前学習GNNは、新しい未知のトポロジや新しい回路レベル特性の予測に適応可能な学習表現を促進することができることを示す。
論文 参考訳(メタデータ) (2022-03-29T21:18:47Z) - Supervised Learning and the Finite-Temperature String Method for
Computing Committor Functions and Reaction Rates [0.0]
希少事象の計算研究における中心的な対象はコミッタ関数である。
アルゴリズムの精度を改善するために追加の修正が必要であることを示す。
論文 参考訳(メタデータ) (2021-07-28T17:44:00Z) - Unsupervised Learning for Asynchronous Resource Allocation in Ad-hoc
Wireless Networks [122.42812336946756]
集約グラフニューラルネットワーク(Agg-GNN)に基づく教師なし学習手法を設計する。
アクティベーションパターンを各ノードの特徴としてモデル化し,ポリシーに基づくリソース割り当て手法を訓練することにより,非同期性を捉える。
論文 参考訳(メタデータ) (2020-11-05T03:38:36Z) - Continual Learning in Recurrent Neural Networks [67.05499844830231]
リカレントニューラルネットワーク(RNN)を用いた逐次データ処理における連続学習手法の有効性を評価する。
RNNに弾性重み強化などの重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重
そこで本研究では,重み付け手法の性能が処理シーケンスの長さに直接的な影響を受けず,むしろ高動作メモリ要求の影響を受けていることを示す。
論文 参考訳(メタデータ) (2020-06-22T10:05:12Z) - RODE-Net: Learning Ordinary Differential Equations with Randomness from
Data [14.742540417008366]
我々は、データから支配方程式を抽出する課題に取り組むために、RODE-Netと呼ばれるディープニューラルネットワークを提案する。
RODE-Net をトレーニングするために,まず,シンボルネットワーク citelong 2019pde を用いて未知の RODE のパラメータを推定する。
次に, RODE のパラメータの真の分布を推定するために, GAN (generative adversarial network) を用いる。
論文 参考訳(メタデータ) (2020-06-03T16:49:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。