論文の概要: Recurrent Stochastic Configuration Networks with Incremental Blocks
- arxiv url: http://arxiv.org/abs/2411.11303v1
- Date: Mon, 18 Nov 2024 05:58:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-19 14:35:06.701580
- Title: Recurrent Stochastic Configuration Networks with Incremental Blocks
- Title(参考訳): 逐次ブロック付き確率的構成ネットワーク
- Authors: Gang Dang, Dainhui Wang,
- Abstract要約: リカレント・コンフィグレーション・ネットワーク(RSCN)は、順序の不確実性を伴う非線形力学系のモデリングにおいて、将来性を示す。
本稿では,ブロックインクリメントを持つブロックRCCN(BRSCN)を開発した。
BRSCNは建設中に複数の貯水池ノード(貯水池)を同時に追加することができる。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Recurrent stochastic configuration networks (RSCNs) have shown promise in modelling nonlinear dynamic systems with order uncertainty due to their advantages of easy implementation, less human intervention, and strong approximation capability. This paper develops the original RSCNs with block increments, termed block RSCNs (BRSCNs), to further enhance the learning capacity and efficiency of the network. BRSCNs can simultaneously add multiple reservoir nodes (subreservoirs) during the construction. Each subreservoir is configured with a unique structure in the light of a supervisory mechanism, ensuring the universal approximation property. The reservoir feedback matrix is appropriately scaled to guarantee the echo state property of the network. Furthermore, the output weights are updated online using a projection algorithm, and the persistent excitation conditions that facilitate parameter convergence are also established. Numerical results over a time series prediction, a nonlinear system identification task, and two industrial data predictive analyses demonstrate that the proposed BRSCN performs favourably in terms of modelling efficiency, learning, and generalization performance, highlighting their significant potential for coping with complex dynamics.
- Abstract(参考訳): リカレント確率的構成ネットワーク(RSCN)は、簡単な実装、人間の介入の少ない、強い近似能力の利点により、順序の不確実性のある非線形力学系をモデル化する上で有望であることを示す。
本稿では,ブロック増分(BRSCN)を用いた元のRCCNを開発し,ネットワークの学習能力と効率をさらに向上させる。
BRSCNは建設中に複数の貯水池ノード(貯水池)を同時に追加することができる。
各貯水池は、監督機構に照らされたユニークな構造で構成され、普遍的な近似特性が保証される。
貯留層フィードバックマトリックスは、ネットワークのエコー状態特性を保証するために適切にスケールされる。
さらに、プロジェクションアルゴリズムを用いて出力重みをオンラインで更新し、パラメータ収束を促進する持続励起条件も確立する。
時系列予測,非線形システム同定タスク,および2つの産業データ予測分析の結果,提案したBRSCNはモデリング効率,学習,一般化性能の面で好適に機能し,複雑な力学に対処する上で重要な可能性を示している。
関連論文リスト
- Deep Recurrent Stochastic Configuration Networks for Modelling Nonlinear Dynamic Systems [3.8719670789415925]
本稿ではディープリカレント構成ネットワーク(DeepRSCN)と呼ばれる新しいディープリカレント計算フレームワークを提案する。
DeepRSCNはインクリメンタルに構築され、すべての貯水池ノードは最終的な出力に直接リンクする。
トレーニングサンプルのセットが与えられた場合、DeepRSCNは、カスケードされた入力読み出し重みを持つランダム基底関数からなる学習表現を迅速に生成できる。
論文 参考訳(メタデータ) (2024-10-28T10:33:15Z) - Self-Organizing Recurrent Stochastic Configuration Networks for Nonstationary Data Modelling [3.8719670789415925]
リカレント・コンフィグレーション・ネットワーク(Recurrent configuration network、RSCN)は、非線形力学のモデリングにおいて有望であることを示すランダム化モデルのクラスである。
本稿では,非定常データモデリングのためのネットワークの連続学習能力を高めるために,SORSCNと呼ばれる自己組織型RCCNを開発することを目的とする。
論文 参考訳(メタデータ) (2024-10-14T01:28:25Z) - Recurrent Stochastic Configuration Networks for Temporal Data Analytics [3.8719670789415925]
本稿では,問題解決のためのコンフィグレーションネットワーク(RSCN)のリカレントバージョンを開発する。
我々は、初期RCCNモデルを構築し、その後、オンラインで出力重みを更新する。
数値的な結果は,提案したRCCNが全データセットに対して良好に動作することを示す。
論文 参考訳(メタデータ) (2024-06-21T03:21:22Z) - Feature-Based Echo-State Networks: A Step Towards Interpretability and Minimalism in Reservoir Computer [0.0]
本稿では,時系列予測のためのエコー状態ネットワーク(ESN)パラダイムを用いた,新しい,解釈可能なリカレントニューラルネットワーク構造を提案する。
系統的な貯水池アーキテクチャは、特徴として知られる異なる入力の組み合わせによって駆動される小さな並列貯水池を用いて開発されている。
結果として、Feat-ESN(Feat-ESN)は、従来の単一貯留層ESNよりも低いリザーブノードを持つ。
論文 参考訳(メタデータ) (2024-03-28T19:41:17Z) - Leveraging Low-Rank and Sparse Recurrent Connectivity for Robust
Closed-Loop Control [63.310780486820796]
繰り返し接続のパラメータ化が閉ループ設定のロバスト性にどのように影響するかを示す。
パラメータが少ないクローズドフォーム連続時間ニューラルネットワーク(CfCs)は、フルランクで完全に接続されたニューラルネットワークよりも優れています。
論文 参考訳(メタデータ) (2023-10-05T21:44:18Z) - Orthogonal Stochastic Configuration Networks with Adaptive Construction
Parameter for Data Analytics [6.940097162264939]
ランダム性により、SCNは冗長で品質の低い近似線形相関ノードを生成する可能性が高まる。
機械学習の基本原理、すなわち、パラメータが少ないモデルでは、一般化が向上する。
本稿では,ネットワーク構造低減のために,低品質な隠れノードをフィルタする直交SCN(OSCN)を提案する。
論文 参考訳(メタデータ) (2022-05-26T07:07:26Z) - Deep Explicit Duration Switching Models for Time Series [84.33678003781908]
状態依存型と時間依存型の両方のスイッチングダイナミクスを識別できるフレキシブルモデルを提案する。
状態依存スイッチングは、リカレントな状態-スイッチ接続によって実現される。
時間依存スイッチング動作を改善するために、明示的な期間カウント変数が使用される。
論文 参考訳(メタデータ) (2021-10-26T17:35:21Z) - Efficient Micro-Structured Weight Unification and Pruning for Neural
Network Compression [56.83861738731913]
ディープニューラルネットワーク(DNN)モデルは、特にリソース制限されたデバイスにおいて、実用的なアプリケーションに不可欠である。
既往の非構造的あるいは構造化された重量刈り法は、推論を真に加速することはほとんど不可能である。
ハードウェア互換のマイクロ構造レベルでの一般化された重み統一フレームワークを提案し,高い圧縮と加速度を実現する。
論文 参考訳(メタデータ) (2021-06-15T17:22:59Z) - DAIS: Automatic Channel Pruning via Differentiable Annealing Indicator
Search [55.164053971213576]
畳み込みニューラルネットワークは,計算オーバーヘッドが大きいにもかかわらず,コンピュータビジョンタスクの実行において大きな成功を収めている。
構造的(チャネル)プルーニングは、通常、ネットワーク構造を保ちながらモデルの冗長性を低減するために適用される。
既存の構造化プルーニング法では、手作りのルールが必要であり、これは大きなプルーニング空間に繋がる可能性がある。
論文 参考訳(メタデータ) (2020-11-04T07:43:01Z) - Continuous-in-Depth Neural Networks [107.47887213490134]
まず最初に、このリッチな意味では、ResNetsは意味のある動的でないことを示します。
次に、ニューラルネットワークモデルが連続力学系を表現することを実証する。
ResNetアーキテクチャの詳細な一般化としてContinuousNetを紹介します。
論文 参考訳(メタデータ) (2020-08-05T22:54:09Z) - Lipschitz Recurrent Neural Networks [100.72827570987992]
我々のリプシッツ再帰ユニットは、他の連続時間RNNと比較して、入力やパラメータの摂動に対してより堅牢であることを示す。
実験により,Lipschitz RNNは,ベンチマークタスクにおいて,既存のリカレントユニットよりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-06-22T08:44:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。