論文の概要: Nonlinear MPC for Offset-Free Tracking of systems learned by GRU Neural
Networks
- arxiv url: http://arxiv.org/abs/2103.02383v1
- Date: Wed, 3 Mar 2021 13:14:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-04 14:44:22.513496
- Title: Nonlinear MPC for Offset-Free Tracking of systems learned by GRU Neural
Networks
- Title(参考訳): gruニューラルネットワークによるオフセットフリートラッキングのための非線形mpc
- Authors: Fabio Bonassi, Caio Fabio Oliveira da Silva, Riccardo Scattolini
- Abstract要約: 本稿では,安定な Gated Recurrent Units (GRUs) を MPC フレームワークでトレーニングし,一定の参照のオフセットレストラッキングを保証されたクローズドループ安定性で行う方法について述べる。
提案手法はpH中性化プロセスベンチマークでテストされ,顕著な性能を示した。
- 参考スコア(独自算出の注目度): 0.2578242050187029
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The use of Recurrent Neural Networks (RNNs) for system identification has
recently gathered increasing attention, thanks to their black-box modeling
capabilities.Albeit RNNs have been fruitfully adopted in many applications,
only few works are devoted to provide rigorous theoretical foundations that
justify their use for control purposes. The aim of this paper is to describe
how stable Gated Recurrent Units (GRUs), a particular RNN architecture, can be
trained and employed in a Nonlinear MPC framework to perform offset-free
tracking of constant references with guaranteed closed-loop stability. The
proposed approach is tested on a pH neutralization process benchmark, showing
remarkable performances.
- Abstract(参考訳): システム識別におけるリカレントニューラルネットワーク(RNN)の利用は、ブラックボックスモデリング機能によって近年注目され、多くのアプリケーションで実効的に採用されているが、制御目的での使用を正当化する厳密な理論的基礎を提供する研究はごくわずかである。
本稿では,特定のrnnアーキテクチャであるstable gated recurrent unit (grus)を非線形mpcフレームワークでトレーニングし,クローズドループ安定性を保証した定数参照のオフセットフリートラッキングを行う方法について述べる。
提案手法はpH中性化プロセスベンチマークでテストされ,顕著な性能を示した。
関連論文リスト
- Lyapunov-stable Neural Control for State and Output Feedback: A Novel Formulation [67.63756749551924]
学習ベースのニューラルネットワーク(NN)制御ポリシは、ロボット工学と制御の幅広いタスクにおいて、印象的な経験的パフォーマンスを示している。
非線形力学系を持つNNコントローラのトラクション領域(ROA)に対するリアプノフ安定性の保証は困難である。
我々は、高速な経験的ファルシフィケーションと戦略的正則化を用いて、Lyapunov証明書とともにNNコントローラを学習するための新しいフレームワークを実証する。
論文 参考訳(メタデータ) (2024-04-11T17:49:15Z) - Nonlinear MPC design for incrementally ISS systems with application to
GRU networks [0.0]
本稿では,指数関数的にインクリメンタルな入力-状態安定(ISS)システムのためのモデル予測制御(NMPC)戦略の設計について述べる。
設計手法は、リカレントニューラルネットワーク(RNN)によって学習されたシステムの制御に特に適している。
このアプローチは Gated Recurrent Unit (GRU) ネットワークに適用され、収束保証を備えた調整状態オブザーバの設計方法も提供する。
論文 参考訳(メタデータ) (2023-09-28T13:26:20Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Backward Reachability Analysis of Neural Feedback Loops: Techniques for
Linear and Nonlinear Systems [59.57462129637796]
本稿では,ニューラルネットワークを用いた閉ループシステムの安全性検証のための後方到達性アプローチを提案する。
フィードバックループにおけるNNの存在は、その活性化関数の非線形性や、NNモデルは一般に可逆的ではないため、ユニークな問題セットを示す。
フィードフォワードNNで表される制御ポリシを持つ線形系と非線形系のBP過近似を計算するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-28T13:17:28Z) - Distributed neural network control with dependability guarantees: a
compositional port-Hamiltonian approach [0.0]
大規模なサイバー物理システムは、制御ポリシーが分散されていること、すなわち、ローカルなリアルタイム測定と近隣エージェントとの通信にのみ依存することを要求する。
最近の研究でニューラルネットワーク(NN)分散コントローラのトレーニングが提案されている。
NNコントローラの主な課題は、トレーニング中と後、すなわちクローズドループシステムは不安定であり、勾配の消失と爆発によってトレーニングが失敗する可能性があることである。
論文 参考訳(メタデータ) (2021-12-16T17:37:11Z) - Interpretable Design of Reservoir Computing Networks using Realization
Theory [5.607676459156789]
貯留層コンピューティングネットワーク(RCN)は、学習と複雑な意思決定タスクのツールとして成功している。
線形力学系の実現理論を用いてRCNを設計するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-12-13T18:49:29Z) - Neural network optimal feedback control with enhanced closed loop
stability [3.0981875303080795]
近年の研究では、教師あり学習は高次元非線形力学系のための最適フィードバックコントローラを設計するための有効なツールであることが示されている。
しかし、これらのニューラルネットワーク(NN)コントローラの挙動はまだよく理解されていない。
本稿では,NNコントローラがシステムの安定化に有効であることを示すために,数値シミュレーションを用いた。
論文 参考訳(メタデータ) (2021-09-15T17:59:20Z) - Recurrent neural network-based Internal Model Control of unknown
nonlinear stable systems [0.30458514384586394]
Gated Recurrent Neural Networks (RNN)は、動的システムを学ぶための人気のあるツールとなっている。
本稿では、内部モデル制御(IMC)アーキテクチャの合成にこれらのネットワークをどのように適用できるかについて議論する。
論文 参考訳(メタデータ) (2021-08-10T11:02:25Z) - Kernel-Based Smoothness Analysis of Residual Networks [85.20737467304994]
ResNets(Residual Networks)は、これらの強力なモダンアーキテクチャの中でも際立っている。
本稿では,2つのモデル,すなわちResNetsが勾配よりもスムーズな傾向を示す。
論文 参考訳(メタデータ) (2020-09-21T16:32:04Z) - Continual Learning in Recurrent Neural Networks [67.05499844830231]
リカレントニューラルネットワーク(RNN)を用いた逐次データ処理における連続学習手法の有効性を評価する。
RNNに弾性重み強化などの重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重
そこで本研究では,重み付け手法の性能が処理シーケンスの長さに直接的な影響を受けず,むしろ高動作メモリ要求の影響を受けていることを示す。
論文 参考訳(メタデータ) (2020-06-22T10:05:12Z) - Lipschitz Recurrent Neural Networks [100.72827570987992]
我々のリプシッツ再帰ユニットは、他の連続時間RNNと比較して、入力やパラメータの摂動に対してより堅牢であることを示す。
実験により,Lipschitz RNNは,ベンチマークタスクにおいて,既存のリカレントユニットよりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-06-22T08:44:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。