論文の概要: Limits to Reservoir Learning
- arxiv url: http://arxiv.org/abs/2307.14474v1
- Date: Wed, 26 Jul 2023 19:41:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-28 16:36:43.963721
- Title: Limits to Reservoir Learning
- Title(参考訳): 貯水池学習の限界
- Authors: Anthony M. Polloreno
- Abstract要約: 我々は、情報処理能力(IPC)を用いて、貯水池コンピュータの性能の劣化を測定する。
この分解は、貯水池で表される関数の族が学習するために指数的な数のサンプルを必要とすることを意味する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we bound a machine's ability to learn based on computational
limitations implied by physicality. We start by considering the information
processing capacity (IPC), a normalized measure of the expected squared error
of a collection of signals to a complete basis of functions. We use the IPC to
measure the degradation under noise of the performance of reservoir computers,
a particular kind of recurrent network, when constrained by physical
considerations. First, we show that the IPC is at most a polynomial in the
system size $n$, even when considering the collection of $2^n$ possible
pointwise products of the $n$ output signals. Next, we argue that this
degradation implies that the family of functions represented by the reservoir
requires an exponential number of samples to learn in the presence of the
reservoir's noise. Finally, we conclude with a discussion of the performance of
the same collection of $2^n$ functions without noise when being used for binary
classification.
- Abstract(参考訳): 本研究では,物理性が示唆する計算限界に基づいて学習する機械の能力を限定した。
まず,信号集合の期待二乗誤差の正規化尺度である情報処理能力(IPC)を関数の完全基底として検討することから始める。
我々はIPCを用いて、物理的考察に制約された場合、特定の種類のリカレントネットワークである貯水池コンピュータの性能のノイズ下での劣化を測定する。
まず、ipcは、n$出力信号のポイントワイズ生成可能な2^n$の集まりを考える場合でも、システムサイズで最大で$n$の多項式であることを示す。
次に, この劣化は, 貯留層で表される関数の族が, 貯留層ノイズの存在下で学習するために指数関数的なサンプル数を必要とすることを示唆する。
最後に、バイナリ分類に使用する場合、ノイズのない2^n$関数の同じコレクションのパフォーマンスに関する議論を締めくくった。
関連論文リスト
- Stochastic Reservoir Computers [0.0]
貯水池計算では、貯水池のコンピュータ全体の異なる状態の数は、貯水池のハードウェアのサイズに比例して指数関数的にスケールすることができる。
ショットノイズは貯水池計算の性能に限界があるが,ノイズの影響が小さい場合,類似のハードウェアを持つ貯水池コンピュータに比べて性能が大幅に向上した。
論文 参考訳(メタデータ) (2024-05-20T21:26:00Z) - Tuning the activation function to optimize the forecast horizon of a
reservoir computer [0.0]
本稿では,ノード活性化関数が貯水池コンピュータのカオス時系列の学習と予測能力に与える影響について検討する。
貯水池の予測が正確である時間であるフォアキャスト・ホライゾン(FH)は、16の活性化関数の集合で桁違いに変化する。
論文 参考訳(メタデータ) (2023-12-20T16:16:01Z) - Squeezing as a resource for time series processing in quantum reservoir
computing [3.072340427031969]
時系列処理におけるニューロモルフィック機械学習におけるスクイーズの効果について考察する。
特に,貯水池計算のためのループ型フォトニックアーキテクチャについて考察する。
マルチモードスクイーズによりアクセス可能なメモリが向上し,複数のベンチマーク時間的タスクのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2023-10-11T11:45:31Z) - Memory capacity of two layer neural networks with smooth activations [27.33243506775655]
隠れニューロンと入力次元が$d$の2層ニューラルネットワークのメモリ容量を決定する。
我々は、ネットワークのヤコビアン(英語版)の正確な一般的なランクを導出する。
われわれのアプローチは、メモリ容量に関する以前の研究と異なり、より深いモデルへの拡張を約束している。
論文 参考訳(メタデータ) (2023-08-03T19:31:15Z) - On sampling determinantal and Pfaffian point processes on a quantum
computer [49.1574468325115]
DPPは1970年代の量子光学のモデルとしてマッキによって導入された。
ほとんどのアプリケーションはDPPからのサンプリングを必要としており、その量子起源を考えると、古典的なコンピュータでDPPをサンプリングするのは古典的なものよりも簡単かどうか疑問に思うのが自然である。
バニラサンプリングは、各コスト$mathcalO(N3)$と$mathcalO(Nr2)$の2つのステップから構成される。
論文 参考訳(メタデータ) (2023-05-25T08:43:11Z) - Computationally Budgeted Continual Learning: What Does Matter? [128.0827987414154]
CL (Continuous Learning) は、新しいデータに適応しながら、以前の知識を保存し、分布の異なる入力データのストリーム上でモデルを逐次訓練することを目的としている。
現在のCL文献では、以前のデータへのアクセス制限に焦点が当てられているが、トレーニングの計算予算に制約は課されていない。
本稿では,この問題を大規模ベンチマークで再検討し,計算制約条件下での従来のCL手法の性能解析を行う。
論文 参考訳(メタデータ) (2023-03-20T14:50:27Z) - Detection-Recovery Gap for Planted Dense Cycles [72.4451045270967]
期待帯域幅$n tau$とエッジ密度$p$をエルドホス=R'enyiグラフ$G(n,q)$に植え込むモデルを考える。
低次アルゴリズムのクラスにおいて、関連する検出および回復問題に対する計算しきい値を特徴付ける。
論文 参考訳(メタデータ) (2023-02-13T22:51:07Z) - FeDXL: Provable Federated Learning for Deep X-Risk Optimization [105.17383135458897]
我々は、既存のアルゴリズムが適用できないXリスクのファミリーを最適化するために、新しい連邦学習(FL)問題に取り組む。
Xリスクに対するFLアルゴリズムを設計する際の課題は、複数のマシンに対する目的の非可逆性と、異なるマシン間の相互依存にある。
論文 参考訳(メタデータ) (2022-10-26T00:23:36Z) - Random pattern and frequency generation using a photonic reservoir
computer with output feedback [3.0395687958102937]
貯留層コンピューティング(Reservoir computing)は、時間依存信号を処理するためのバイオインスパイアされたコンピューティングパラダイムである。
出力フィードバックを持つ最初の光電子貯水池コンピュータを実演し、時系列生成タスクの2つの例でテストする。
論文 参考訳(メタデータ) (2020-12-19T07:26:32Z) - On Function Approximation in Reinforcement Learning: Optimism in the
Face of Large State Spaces [208.67848059021915]
強化学習のコアにおける探索・探索トレードオフについて検討する。
特に、関数クラス $mathcalF$ の複雑さが関数の複雑さを特徴づけていることを証明する。
私たちの後悔の限界はエピソードの数とは無関係です。
論文 参考訳(メタデータ) (2020-11-09T18:32:22Z) - Learning Halfspaces with Tsybakov Noise [50.659479930171585]
テュバコフ雑音の存在下でのハーフスペースの学習可能性について検討する。
真半空間に関して誤分類誤差$epsilon$を達成するアルゴリズムを与える。
論文 参考訳(メタデータ) (2020-06-11T14:25:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。