論文の概要: Time Shifts to Reduce the Size of Reservoir Computers
- arxiv url: http://arxiv.org/abs/2205.02267v1
- Date: Tue, 3 May 2022 11:42:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-07 10:44:34.577435
- Title: Time Shifts to Reduce the Size of Reservoir Computers
- Title(参考訳): 貯留層コンピュータの規模削減に向けた時間シフト
- Authors: Thomas L. Carroll and Joseph D. Hart
- Abstract要約: 貯水池コンピュータは計算を行うために配置された力学系の一種である。
我々は,貯水池コンピュータを,小さな非線形ノード(貯水池)と時間シフト型貯水池出力信号の2つの部分に分けられることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A reservoir computer is a type of dynamical system arranged to do
computation. Typically, a reservoir computer is constructed by connecting a
large number of nonlinear nodes in a network that includes recurrent
connections. In order to achieve accurate results, the reservoir usually
contains hundreds to thousands of nodes. This high dimensionality makes it
difficult to analyze the reservoir computer using tools from dynamical systems
theory. Additionally, the need to create and connect large numbers of nonlinear
nodes makes it difficult to design and build analog reservoir computers that
can be faster and consume less power than digital reservoir computers. We
demonstrate here that a reservoir computer may be divided into two parts; a
small set of nonlinear nodes (the reservoir), and a separate set of
time-shifted reservoir output signals. The time-shifted output signals serve to
increase the rank and memory of the reservoir computer, and the set of
nonlinear nodes may create an embedding of the input dynamical system. We use
this time-shifting technique to obtain excellent performance from an
opto-electronic delay-based reservoir computer with only a small number of
virtual nodes. Because only a few nonlinear nodes are required, construction of
a reservoir computer becomes much easier, and delay-based reservoir computers
can operate at much higher speeds.
- Abstract(参考訳): 貯水池コンピュータは計算を行うための力学系の一種である。
通常、貯水池コンピュータは、繰り返し接続を含むネットワーク内の多数の非線形ノードを接続することによって構成される。
正確な結果を得るために、貯水池は通常数百から数千のノードを含む。
この高次元性は、動的システム理論のツールを用いて貯水池コンピュータを分析するのを難しくする。
さらに、多数の非線形ノードを作成して接続する必要があるため、デジタル貯水池コンピュータよりも高速で消費電力が少ないアナログ貯水池コンピュータの設計と構築が困難になる。
そこで我々は,貯水池コンピュータを,小さな非線形ノード(貯水池)と時間シフト型貯水池出力信号の2つの部分に分けられることを示した。
時間シフトされた出力信号は貯水池コンピュータのランクとメモリを増加させ、非線形ノードの集合は入力力学系の埋め込みを生成する。
我々は,この時間シフト技術を用いて,仮想ノード数が少ない光電子遅延型リザーバコンピュータから優れた性能を得る。
少数の非線形ノードが必要なため、リザーバコンピュータの構築はずっと簡単になり、遅延ベースのリザーバコンピュータはより高速に動作することができる。
関連論文リスト
- Resistive Memory-based Neural Differential Equation Solver for Score-based Diffusion Model [55.116403765330084]
スコアベースの拡散のような現在のAIGC法は、迅速性と効率性の点で依然として不足している。
スコアベース拡散のための時間連続型およびアナログ型インメモリ型ニューラル微分方程式解法を提案する。
我々は180nmの抵抗型メモリインメモリ・コンピューティング・マクロを用いて,我々の解を実験的に検証した。
論文 参考訳(メタデータ) (2024-04-08T16:34:35Z) - Randomized Polar Codes for Anytime Distributed Machine Learning [66.46612460837147]
本稿では,低速な計算ノードに対して堅牢で,線形演算の近似計算と精度の両立が可能な分散コンピューティングフレームワークを提案する。
本稿では,復号化のための計算複雑性を低く保ちながら,実数値データを扱うための逐次復号アルゴリズムを提案する。
大規模行列乗算やブラックボックス最適化など,様々な文脈において,このフレームワークの潜在的な応用を実証する。
論文 参考訳(メタデータ) (2023-09-01T18:02:04Z) - Reservoir Computing Using Complex Systems [0.0]
Reservoir Computingは、物理システムを利用した計算のための機械学習フレームワークである。
計算に単一ノード貯水池を用いる方法を示し、物理貯水池の計算能力を改善するために利用可能な選択肢を探索する。
論文 参考訳(メタデータ) (2022-12-17T00:25:56Z) - Instant Neural Graphics Primitives with a Multiresolution Hash Encoding [67.33850633281803]
品質を犠牲にすることなく、より小さなネットワークを使用できる汎用的な新しい入力符号化を提案する。
小さなニューラルネットワークは、勾配降下によって値が最適化された訓練可能な特徴ベクトルの多分解能ハッシュテーブルによって拡張される。
数桁の高速化を実現し、高品質なニューラルネットワークプリミティブを数秒でトレーニングすることができる。
論文 参考訳(メタデータ) (2022-01-16T07:22:47Z) - Optimizing Memory in Reservoir Computers [0.0]
貯水池コンピュータは高次元力学系を用いて計算を行う方法である。
ネットワークはノード間のフィードバックを生成するため、貯水池コンピュータはメモリを持つ。
このメモリの持続時間は、貯水池コンピュータが特定の問題を解決するのにどれだけの時間がかかるかを決定するのに重要である。
論文 参考訳(メタデータ) (2022-01-05T13:38:53Z) - Task Agnostic Metrics for Reservoir Computing [0.0]
物理貯水池計算は、物理物質における時間的パターン認識を可能にする計算パラダイムである。
選択された力学系は、非線形性、複雑性、暗くなるメモリの3つの望ましい特性を持つ必要がある。
一般に, 減衰率の低いシステムは, 3つの評価指標すべてにおいて高い値に達することが示されている。
論文 参考訳(メタデータ) (2021-08-03T13:58:11Z) - Reservoir Stack Machines [77.12475691708838]
メモリ拡張ニューラルネットワークは、情報ストレージを必要とするタスクをサポートするために、明示的なメモリを備えたリカレントニューラルネットワークを備える。
本研究では,全ての決定論的文脈自由言語を確実に認識できるモデルである貯水池スタックマシンを導入する。
以上の結果から, 貯水池スタックマシンは, 訓練データよりも長い試験シーケンスでもゼロ誤差を達成できることがわかった。
論文 参考訳(メタデータ) (2021-05-04T16:50:40Z) - VersaGNN: a Versatile accelerator for Graph neural networks [81.1667080640009]
我々は,超効率的なサイストリックアレイベースの多用途ハードウェアアクセラレータである textitVersaGNN を提案する。
textitVersaGNNは平均3712$times$ speedup with 1301.25$times$ energy reduction on CPU、35.4$times$ speedup with 17.66$times$ energy reduction on GPUを達成している。
論文 参考訳(メタデータ) (2021-05-04T04:10:48Z) - Reservoir Memory Machines as Neural Computers [70.5993855765376]
微分可能なニューラルネットワークは、干渉することなく明示的なメモリで人工ニューラルネットワークを拡張する。
我々は、非常に効率的に訓練できるモデルを用いて、微分可能なニューラルネットワークの計算能力を実現する。
論文 参考訳(メタデータ) (2020-09-14T12:01:30Z) - Adding Filters to Improve Reservoir Computer Performance [0.0]
この研究は、貯水池コンピュータが出力に関数を追加することによってどのように拡張されるかを示す。
ここで説明する特定の関数は線形フィルタであるが、他の関数も可能である。
信号嵌合問題,予測問題,信号分類問題に対して,フィルタの追加が貯水池コンピュータ性能に与える影響をシミュレートする。
論文 参考訳(メタデータ) (2020-08-24T18:10:27Z) - Building Reservoir Computing Hardware Using Low Energy-Barrier Magnetics [0.0]
貯水池コンピュータのような生物学的に繰り返されるニューラルネットワークは、単純な学習方式とカルマンフィルタとの深い接続により、ハードウェアの観点から興味深い。
このようなデバイスを用いた貯水池コンピュータのコンパクトな実装は、エッジデバイスにおけるスタンドアロンまたは直感的なマシン認識のためのコンパクトでエネルギー効率のよい信号プロセッサの構築を可能にする。
論文 参考訳(メタデータ) (2020-07-06T14:11:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。