論文の概要: Universality of reservoir systems with recurrent neural networks
- arxiv url: http://arxiv.org/abs/2403.01900v1
- Date: Mon, 4 Mar 2024 09:59:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 19:17:00.647840
- Title: Universality of reservoir systems with recurrent neural networks
- Title(参考訳): 繰り返しニューラルネットワークを用いた貯水池システムの普遍性
- Authors: Hiroki Yasumoto and Toshiyuki Tanaka
- Abstract要約: 貯水池システムは、貯水池が固定されている間、その線形読み出しを調整するだけで関数の集合を近似する。
ある種の関数を近似するために、RNN貯水池系の一様強普遍性と呼ぶものを示す。
- 参考スコア(独自算出の注目度): 2.812750563066397
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Approximation capability of reservoir systems whose reservoir is a recurrent
neural network (RNN) is discussed. In our problem setting, a reservoir system
approximates a set of functions just by adjusting its linear readout while the
reservoir is fixed. We will show what we call uniform strong universality of a
family of RNN reservoir systems for a certain class of functions to be
approximated. This means that, for any positive number, we can construct a
sufficiently large RNN reservoir system whose approximation error for each
function in the class of functions to be approximated is bounded from above by
the positive number. Such RNN reservoir systems are constructed via parallel
concatenation of RNN reservoirs.
- Abstract(参考訳): 貯留層がリカレントニューラルネットワーク(RNN)である貯水池システムの近似能力について論じる。
問題設定では,貯水池が固定されている間,線形読み出しを調整して関数の集合を近似する。
我々は、ある種の関数を近似するために、rnn貯水池系の一様強普遍性(uniform strong universality)と呼ぶものを示す。
つまり、任意の正の数に対して、近似される関数のクラス内の各関数に対する近似誤差が上から正の数で有界であるような十分に大きなRNN貯水池を構築することができる。
このようなRNN貯水池システムは、RNN貯水池の並列接続によって構築される。
関連論文リスト
- Simple Cycle Reservoirs are Universal [0.358439716487063]
貯留層モデル(Reservoir model)は、トレーニング不能な入力と動的結合重みを固定したリカレントニューラルネットワークのサブクラスを形成する。
制限のない線形貯水池系を普遍的に近似できることを示す。
論文 参考訳(メタデータ) (2023-08-21T15:35:59Z) - Infinite-dimensional reservoir computing [9.152759278163954]
インプット/アウトプットシステムの新しい概念クラスに対して,貯留層計算の近似と一般化境界が証明された。
本研究の結果は,完全実装可能なリカレントニューラルネットワークに基づく学習アルゴリズムであり,コンバージェンス保証が保証されている。
論文 参考訳(メタデータ) (2023-04-02T08:59:12Z) - Reservoir Computing Using Complex Systems [0.0]
Reservoir Computingは、物理システムを利用した計算のための機械学習フレームワークである。
計算に単一ノード貯水池を用いる方法を示し、物理貯水池の計算能力を改善するために利用可能な選択肢を探索する。
論文 参考訳(メタデータ) (2022-12-17T00:25:56Z) - Hierarchical Spherical CNNs with Lifting-based Adaptive Wavelets for
Pooling and Unpooling [101.72318949104627]
本稿では, 階層型畳み込みニューラルネットワーク(HS-CNN)の新たな枠組みを提案し, プールやアンプールのための適応球面ウェーブレットを学習する。
LiftHS-CNNは、画像レベルのタスクとピクセルレベルのタスクの両方において、より効率的な階層的特徴学習を実現する。
論文 参考訳(メタデータ) (2022-05-31T07:23:42Z) - Graph-adaptive Rectified Linear Unit for Graph Neural Networks [64.92221119723048]
グラフニューラルネットワーク(GNN)は、従来の畳み込みを非ユークリッドデータでの学習に拡張することで、目覚ましい成功を収めた。
本稿では,周辺情報を利用した新しいパラメトリックアクティベーション機能であるグラフ適応整流線形ユニット(GRELU)を提案する。
我々は,GNNのバックボーンと様々な下流タスクによって,プラグアンドプレイGRELU法が効率的かつ効果的であることを示す包括的実験を行った。
論文 参考訳(メタデータ) (2022-02-13T10:54:59Z) - Metric Entropy Limits on Recurrent Neural Network Learning of Linear
Dynamical Systems [0.0]
RNNは、システム理論のパーランスにおいて、安定したLTIシステムで最適に学習または識別できることを示す。
差分方程式によって入出力関係を特徴づけるLPIシステムの場合、RNNはメートルエントロピー最適方法で入出力トレースから差分方程式を学習することができる。
論文 参考訳(メタデータ) (2021-05-06T10:12:30Z) - An Infinite-Feature Extension for Bayesian ReLU Nets That Fixes Their
Asymptotic Overconfidence [65.24701908364383]
ベイズ処理は、トレーニングデータを取り巻くReLUネットの過信を軽減することができる。
しかし、彼らから遠く離れたところでは、ReLUニューラルネットワーク(BNN)はいまだに不確実性を過小評価し過ぎている可能性がある。
事前学習した任意のReLU BNNに対して,低コストでemphpost-hocを適用可能であることを示す。
論文 参考訳(メタデータ) (2020-10-06T13:32:18Z) - Discrete-time signatures and randomness in reservoir computing [8.579665234755478]
貯留層計算は、ランダムに選択されたリカレントニューラルネットワークと訓練された線形読み出し層で入出力系を近似する可能性である。
強い普遍的な貯水池システム(英語版)と呼ばれるものを構築することで、この現象に光が当たっている。
投射された貯水池システムの生成に必要な確率分布の明示表現を記述し、コミット近似誤差のバウンダリを提供する。
論文 参考訳(メタデータ) (2020-09-17T10:55:59Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Lipschitz Recurrent Neural Networks [100.72827570987992]
我々のリプシッツ再帰ユニットは、他の連続時間RNNと比較して、入力やパラメータの摂動に対してより堅牢であることを示す。
実験により,Lipschitz RNNは,ベンチマークタスクにおいて,既存のリカレントユニットよりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-06-22T08:44:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。