論文の概要: Stochastic Reservoir Computers
- arxiv url: http://arxiv.org/abs/2405.12382v1
- Date: Mon, 20 May 2024 21:26:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-22 14:47:55.582992
- Title: Stochastic Reservoir Computers
- Title(参考訳): 確率型貯留層コンピュータ
- Authors: Peter J. Ehlers, Hendra I. Nurdin, Daniel Soh,
- Abstract要約: 貯水池計算では、貯水池のコンピュータ全体の異なる状態の数は、貯水池のハードウェアのサイズに比例して指数関数的にスケールすることができる。
ショットノイズは貯水池計算の性能に限界があるが,ノイズの影響が小さい場合,類似のハードウェアを持つ貯水池コンピュータに比べて性能が大幅に向上した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reservoir computing is a form of machine learning that utilizes nonlinear dynamical systems to perform complex tasks in a cost-effective manner when compared to typical neural networks. Many recent advancements in reservoir computing, in particular quantum reservoir computing, make use of reservoirs that are inherently stochastic. However, the theoretical justification for using these systems has not yet been well established. In this paper, we investigate the universality of stochastic reservoir computers, in which we use a stochastic system for reservoir computing using the probabilities of each reservoir state as the readout instead of the states themselves. In stochastic reservoir computing, the number of distinct states of the entire reservoir computer can potentially scale exponentially with the size of the reservoir hardware, offering the advantage of compact device size. We prove that classes of stochastic echo state networks, and therefore the class of all stochastic reservoir computers, are universal approximating classes. We also investigate the performance of two practical examples of stochastic reservoir computers in classification and chaotic time series prediction. While shot noise is a limiting factor in the performance of stochastic reservoir computing, we show significantly improved performance compared to a deterministic reservoir computer with similar hardware in cases where the effects of noise are small.
- Abstract(参考訳): 貯留層コンピューティング(Reservoir computing)は、非線形力学システムを用いて、典型的なニューラルネットワークと比較してコスト効率の良い複雑なタスクを実行する機械学習の一種である。
近年の貯水池コンピューティングの進歩、特に量子貯水池コンピューティングは、本質的に確率的な貯水池を利用している。
しかし、これらのシステムを使用する理論的正当性はまだ十分に確立されていない。
本稿では, 確率型貯水池コンピュータの普遍性について検討し, 各貯水池状態の確率を状態自体ではなく可読性として利用した確率型貯水池計算システムについて検討する。
確率的貯水池計算では、貯水池のコンピュータ全体の異なる状態の数は、貯水池のハードウェアのサイズと指数関数的にスケールできる可能性があり、コンパクトなデバイスサイズに利点がある。
確率的エコー状態ネットワークのクラス、従って全ての確率的貯水池コンピュータのクラスは普遍的な近似クラスであることを示す。
また,確率型貯水池コンピュータの分類とカオス時系列予測における実用例について検討した。
ショットノイズは確率的貯水池計算の性能の限界要因であるが,ノイズの影響が小さい場合には,類似のハードウェアを持つ決定論的貯水池コンピュータに比べて性能が大幅に向上した。
関連論文リスト
- Universality conditions of unified classical and quantum reservoir computing [1.1510009152620668]
貯留層コンピューティング(Reservoir computing)は、計算神経科学と機械学習における多用途パラダイムである。
統一理論フレームワークを提案し、普遍性を確保するための準備の整った設定を提案する。
論文 参考訳(メタデータ) (2024-01-26T18:48:23Z) - Deep Photonic Reservoir Computer for Speech Recognition [49.1574468325115]
音声認識は人工知能の分野で重要な課題であり、目覚ましい進歩を目撃してきた。
深い貯水池コンピューティングはエネルギー効率が高いが、よりリソース集約的な機械学習アルゴリズムと比較して、パフォーマンスに制限がある。
フォトニック方式の深層貯水池コンピュータを提案し,その性能を音声認識タスクで評価する。
論文 参考訳(メタデータ) (2023-12-11T17:43:58Z) - Squeezing as a resource for time series processing in quantum reservoir
computing [3.072340427031969]
時系列処理におけるニューロモルフィック機械学習におけるスクイーズの効果について考察する。
特に,貯水池計算のためのループ型フォトニックアーキテクチャについて考察する。
マルチモードスクイーズによりアクセス可能なメモリが向上し,複数のベンチマーク時間的タスクのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2023-10-11T11:45:31Z) - Randomized Polar Codes for Anytime Distributed Machine Learning [66.46612460837147]
本稿では,低速な計算ノードに対して堅牢で,線形演算の近似計算と精度の両立が可能な分散コンピューティングフレームワークを提案する。
本稿では,復号化のための計算複雑性を低く保ちながら,実数値データを扱うための逐次復号アルゴリズムを提案する。
大規模行列乗算やブラックボックス最適化など,様々な文脈において,このフレームワークの潜在的な応用を実証する。
論文 参考訳(メタデータ) (2023-09-01T18:02:04Z) - Controlling dynamical systems to complex target states using machine
learning: next-generation vs. classical reservoir computing [68.8204255655161]
機械学習を用いた非線形力学系の制御は、システムを周期性のような単純な振る舞いに駆動するだけでなく、より複雑な任意の力学を駆動する。
まず, 従来の貯水池計算が優れていることを示す。
次のステップでは、これらの結果を異なるトレーニングデータに基づいて比較し、代わりに次世代貯水池コンピューティングを使用する別のセットアップと比較する。
その結果、通常のトレーニングデータに対して同等のパフォーマンスを提供する一方で、次世代RCは、非常に限られたデータしか利用できない状況において、著しくパフォーマンスが向上していることがわかった。
論文 参考訳(メタデータ) (2023-07-14T07:05:17Z) - Effect of temporal resolution on the reproduction of chaotic dynamics
via reservoir computing [0.0]
貯水池コンピューティング(Reservoir computing)は、非線形性と短期記憶を備えた貯水池と呼ばれる構造を用いる機械学習パラダイムである。
本研究では,サンプリングが貯水池コンピューティングのカオス時系列を自律的に再生する能力に与える影響を解析する。
論文 参考訳(メタデータ) (2023-01-27T13:31:15Z) - Reservoir Computing Using Complex Systems [0.0]
Reservoir Computingは、物理システムを利用した計算のための機械学習フレームワークである。
計算に単一ノード貯水池を用いる方法を示し、物理貯水池の計算能力を改善するために利用可能な選択肢を探索する。
論文 参考訳(メタデータ) (2022-12-17T00:25:56Z) - LCS: Learning Compressible Subspaces for Adaptive Network Compression at
Inference Time [57.52251547365967]
本稿では,ニューラルネットワークの「圧縮可能な部分空間」を訓練する手法を提案する。
構造的・非構造的空間に対する推定時間における微粒な精度・効率のトレードオフを任意に達成するための結果を示す。
我々のアルゴリズムは、可変ビット幅での量子化にまで拡張し、個別に訓練されたネットワークと同等の精度を実現する。
論文 参考訳(メタデータ) (2021-10-08T17:03:34Z) - Natural quantum reservoir computing for temporal information processing [4.785845498722406]
貯留層計算(Reservoir computing)は、人工的または物理的散逸動態を利用する時間情報処理システムである。
本稿では, 量子ビットに付加される自然ノイズによって散逸特性が供給される貯水池として, 現実の超伝導量子コンピューティングデバイスを用いる方法を提案する。
論文 参考訳(メタデータ) (2021-07-13T01:58:57Z) - Reservoir Stack Machines [77.12475691708838]
メモリ拡張ニューラルネットワークは、情報ストレージを必要とするタスクをサポートするために、明示的なメモリを備えたリカレントニューラルネットワークを備える。
本研究では,全ての決定論的文脈自由言語を確実に認識できるモデルである貯水池スタックマシンを導入する。
以上の結果から, 貯水池スタックマシンは, 訓練データよりも長い試験シーケンスでもゼロ誤差を達成できることがわかった。
論文 参考訳(メタデータ) (2021-05-04T16:50:40Z) - Reservoir Memory Machines as Neural Computers [70.5993855765376]
微分可能なニューラルネットワークは、干渉することなく明示的なメモリで人工ニューラルネットワークを拡張する。
我々は、非常に効率的に訓練できるモデルを用いて、微分可能なニューラルネットワークの計算能力を実現する。
論文 参考訳(メタデータ) (2020-09-14T12:01:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。