論文の概要: Universality of reservoir systems with recurrent neural networks
- arxiv url: http://arxiv.org/abs/2403.01900v2
- Date: Mon, 07 Apr 2025 03:54:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-08 14:07:53.026839
- Title: Universality of reservoir systems with recurrent neural networks
- Title(参考訳): リカレントニューラルネットワークを用いた貯水池システムの普遍性
- Authors: Hiroki Yasumoto, Toshiyuki Tanaka,
- Abstract要約: ある種の力学系に対するRNN貯水池システムの一様強普遍性を示す。
クラス内の各ターゲットに依存しない近似誤差の上限を持つ並列結合によるRNN貯水池システムを構築する。
- 参考スコア(独自算出の注目度): 2.380927607570675
- License:
- Abstract: Approximation capability of reservoir systems whose reservoir is a recurrent neural network (RNN) is discussed. We show what we call uniform strong universality of RNN reservoir systems for a certain class of dynamical systems. This means that, given an approximation error to be achieved, one can construct an RNN reservoir system that approximates each target dynamical system in the class just via adjusting its linear readout. To show the universality, we construct an RNN reservoir system via parallel concatenation that has an upper bound of approximation error independent of each target in the class.
- Abstract(参考訳): 貯留層がリカレントニューラルネットワーク(RNN)である貯水池システムの近似能力について論じる。
ある種の力学系に対するRNN貯水池システムの一様強普遍性を示す。
これは、近似誤差が与えられると、その線形読み出しを調整するだけで、クラス内の各ターゲット力学系を近似するRNN貯水池システムを構築することができることを意味する。
この普遍性を示すために,クラス内の各ターゲットに依存しない近似誤差の上限を持つ並列結合によるRNN貯水池システムを構築した。
関連論文リスト
- On the Dimension of Pullback Attractors in Recurrent Neural Networks [0.0]
近年、力学系の観測に基づいて訓練された貯水池コンピュータは埋め込みとして解釈できると推測されている。
本研究では、非正則力学系を用いて、トレーニングおよび予測フェーズ中に近似された貯水池状態空間の部分集合のフラクタル次元の上限を確立する。
論文 参考訳(メタデータ) (2025-01-20T09:38:30Z) - Simple Cycle Reservoirs are Universal [0.358439716487063]
貯留層モデル(Reservoir model)は、トレーニング不能な入力と動的結合重みを固定したリカレントニューラルネットワークのサブクラスを形成する。
制限のない線形貯水池系を普遍的に近似できることを示す。
論文 参考訳(メタデータ) (2023-08-21T15:35:59Z) - Infinite-dimensional reservoir computing [9.152759278163954]
インプット/アウトプットシステムの新しい概念クラスに対して,貯留層計算の近似と一般化境界が証明された。
本研究の結果は,完全実装可能なリカレントニューラルネットワークに基づく学習アルゴリズムであり,コンバージェンス保証が保証されている。
論文 参考訳(メタデータ) (2023-04-02T08:59:12Z) - Reservoir Computing Using Complex Systems [0.0]
Reservoir Computingは、物理システムを利用した計算のための機械学習フレームワークである。
計算に単一ノード貯水池を用いる方法を示し、物理貯水池の計算能力を改善するために利用可能な選択肢を探索する。
論文 参考訳(メタデータ) (2022-12-17T00:25:56Z) - Hierarchical Spherical CNNs with Lifting-based Adaptive Wavelets for
Pooling and Unpooling [101.72318949104627]
本稿では, 階層型畳み込みニューラルネットワーク(HS-CNN)の新たな枠組みを提案し, プールやアンプールのための適応球面ウェーブレットを学習する。
LiftHS-CNNは、画像レベルのタスクとピクセルレベルのタスクの両方において、より効率的な階層的特徴学習を実現する。
論文 参考訳(メタデータ) (2022-05-31T07:23:42Z) - Graph-adaptive Rectified Linear Unit for Graph Neural Networks [64.92221119723048]
グラフニューラルネットワーク(GNN)は、従来の畳み込みを非ユークリッドデータでの学習に拡張することで、目覚ましい成功を収めた。
本稿では,周辺情報を利用した新しいパラメトリックアクティベーション機能であるグラフ適応整流線形ユニット(GRELU)を提案する。
我々は,GNNのバックボーンと様々な下流タスクによって,プラグアンドプレイGRELU法が効率的かつ効果的であることを示す包括的実験を行った。
論文 参考訳(メタデータ) (2022-02-13T10:54:59Z) - An Infinite-Feature Extension for Bayesian ReLU Nets That Fixes Their
Asymptotic Overconfidence [65.24701908364383]
ベイズ処理は、トレーニングデータを取り巻くReLUネットの過信を軽減することができる。
しかし、彼らから遠く離れたところでは、ReLUニューラルネットワーク(BNN)はいまだに不確実性を過小評価し過ぎている可能性がある。
事前学習した任意のReLU BNNに対して,低コストでemphpost-hocを適用可能であることを示す。
論文 参考訳(メタデータ) (2020-10-06T13:32:18Z) - Discrete-time signatures and randomness in reservoir computing [8.579665234755478]
貯留層計算は、ランダムに選択されたリカレントニューラルネットワークと訓練された線形読み出し層で入出力系を近似する可能性である。
強い普遍的な貯水池システム(英語版)と呼ばれるものを構築することで、この現象に光が当たっている。
投射された貯水池システムの生成に必要な確率分布の明示表現を記述し、コミット近似誤差のバウンダリを提供する。
論文 参考訳(メタデータ) (2020-09-17T10:55:59Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Lipschitz Recurrent Neural Networks [100.72827570987992]
我々のリプシッツ再帰ユニットは、他の連続時間RNNと比較して、入力やパラメータの摂動に対してより堅牢であることを示す。
実験により,Lipschitz RNNは,ベンチマークタスクにおいて,既存のリカレントユニットよりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-06-22T08:44:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。