論文の概要: Recurrent Equilibrium Networks: Flexible Dynamic Models with Guaranteed
Stability and Robustness
- arxiv url: http://arxiv.org/abs/2104.05942v3
- Date: Wed, 12 Jul 2023 04:06:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-13 20:56:21.443213
- Title: Recurrent Equilibrium Networks: Flexible Dynamic Models with Guaranteed
Stability and Robustness
- Title(参考訳): Recurrent Equilibrium Networks: 安定性とロバストさを保証したフレキシブルな動的モデル
- Authors: Max Revay, Ruigang Wang, Ian R. Manchester
- Abstract要約: 本稿では,機械学習,システム識別,制御における再帰平衡ネットワーク(REN)を提案する。
RENはRNの二次ベクトルによって直接パラメータ化され、安定性とロバスト性はパラメータ制約なしで確保される。
また,データ駆動型非線形オブザーバの設計と安定性保証による制御への応用について述べる。
- 参考スコア(独自算出の注目度): 3.2872586139884623
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces recurrent equilibrium networks (RENs), a new class of
nonlinear dynamical models} for applications in machine learning, system
identification and control. The new model class admits ``built in'' behavioural
guarantees of stability and robustness. All models in the proposed class are
contracting -- a strong form of nonlinear stability -- and models can satisfy
prescribed incremental integral quadratic constraints (IQC), including
Lipschitz bounds and incremental passivity. RENs are otherwise very flexible:
they can represent all stable linear systems, all previously-known sets of
contracting recurrent neural networks and echo state networks, all deep
feedforward neural networks, and all stable Wiener/Hammerstein models, and can
approximate all fading-memory and contracting nonlinear systems. RENs are
parameterized directly by a vector in R^N, i.e. stability and robustness are
ensured without parameter constraints, which simplifies learning since
\HL{generic methods for unconstrained optimization such as stochastic gradient
descent and its variants can be used}. The performance and robustness of the
new model set is evaluated on benchmark nonlinear system identification
problems, and the paper also presents applications in data-driven nonlinear
observer design and control with stability guarantees.
- Abstract(参考訳): 本稿では,リカレント平衡ネットワーク(REN)を機械学習,システム識別,制御に適用するための新しい非線形力学モデルとして紹介する。
新しいモデルクラスは、安定性と堅牢性の‘build in’の振る舞いを保証する。
提案されたクラス内の全てのモデルは、強い非線形安定性の収縮であり、リプシッツ境界や漸進的摂動性を含む、所定の増分積分二次制約 (iqc) を満たすことができる。
renは、すべての安定線形システム、すべての既知の収縮型ニューラルネットワークとエコー状態ネットワーク、すべてのディープフィードフォワードニューラルネットワーク、およびすべての安定型ウィーナー/ハンマースタインモデルを表現することができ、全てのフェーディングメモリおよび収縮型非線形システムを近似することができる。
ren は r^n のベクトルによって直接パラメータ化され、すなわち、確率的勾配降下やその変種のような非拘束的最適化のための \hl{generic method であるため、パラメータ制約なしに安定性とロバスト性が保証される。
ベンチマーク非線形システム同定問題に対して,新しいモデルセットの性能と堅牢性を評価し,データ駆動型非線形オブザーバの設計と安定性を保証する制御への応用について述べる。
関連論文リスト
- Learning to Boost the Performance of Stable Nonlinear Systems [0.0]
クローズドループ安定性保証による性能ブースティング問題に対処する。
本手法は,安定な非線形システムのための性能ブースティング制御器のニューラルネットワーククラスを任意に学習することを可能にする。
論文 参考訳(メタデータ) (2024-05-01T21:11:29Z) - Towards Continual Learning Desiderata via HSIC-Bottleneck
Orthogonalization and Equiangular Embedding [55.107555305760954]
本稿では,レイヤワイドパラメータのオーバーライトや決定境界の歪みに起因する,概念的にシンプルで効果的な手法を提案する。
提案手法は,ゼロの指数バッファと1.02倍の差が絶対的に優れていても,競争精度が向上する。
論文 参考訳(メタデータ) (2024-01-17T09:01:29Z) - Learning Over Contracting and Lipschitz Closed-Loops for
Partially-Observed Nonlinear Systems (Extended Version) [1.2430809884830318]
本稿では非線形な部分観測力学系に対する学習に基づく制御のためのポリシーパラメータ化を提案する。
結果のYoula-RENパラメータ化は自動的に安定性(収縮)とユーザチューニング可能な堅牢性(Lipschitz)を満足することを示した。
We found that the Youla-REN are also like to existing learning-based and optimal control method, also ensure stability and exhibiting improve robustness to adversarial disturbances。
論文 参考訳(メタデータ) (2023-04-12T23:55:56Z) - KCRL: Krasovskii-Constrained Reinforcement Learning with Guaranteed
Stability in Nonlinear Dynamical Systems [66.9461097311667]
形式的安定性を保証するモデルに基づく強化学習フレームワークを提案する。
提案手法は,特徴表現を用いて信頼区間までシステムダイナミクスを学習する。
我々は、KCRLが、基礎となる未知のシステムとの有限数の相互作用において安定化ポリシーを学ぶことが保証されていることを示す。
論文 参考訳(メタデータ) (2022-06-03T17:27:04Z) - A Priori Denoising Strategies for Sparse Identification of Nonlinear
Dynamical Systems: A Comparative Study [68.8204255655161]
本研究では, 局所的およびグローバルな平滑化手法の性能と, 状態測定値の偏差について検討・比較する。
一般に,測度データセット全体を用いたグローバルな手法は,局所点の周辺に隣接するデータサブセットを用いる局所的手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-01-29T23:31:25Z) - Learning over All Stabilizing Nonlinear Controllers for a
Partially-Observed Linear System [4.3012765978447565]
線形力学系に対する非線形出力フィードバックコントローラのパラメータ化を提案する。
提案手法は, 制約を満たすことなく, 部分的に観測可能な線形力学系の閉ループ安定性を保証する。
論文 参考訳(メタデータ) (2021-12-08T10:43:47Z) - Youla-REN: Learning Nonlinear Feedback Policies with Robust Stability
Guarantees [5.71097144710995]
本稿では,最近開発されたニューラルネットワークアーキテクチャ上に構築された不確実性システムに対する非線形制御器のパラメータ化について述べる。
提案したフレームワークは、安定性の保証、すなわち、検索空間におけるすべてのポリシーが、契約(グローバルに指数関数的に安定した)クローズドループシステムをもたらすことを保証する。
論文 参考訳(メタデータ) (2021-12-02T13:52:37Z) - Stabilizing Equilibrium Models by Jacobian Regularization [151.78151873928027]
ディープ均衡ネットワーク(Deep equilibrium Network, DEQs)は、単一非線形層の固定点を見つけるために従来の深さを推定する新しいモデルのクラスである。
本稿では、平衡モデルの学習を安定させるために、固定点更新方程式のヤコビアンを明示的に正規化するDECモデルの正規化スキームを提案する。
この正規化は計算コストを最小限に抑え、前方と後方の両方の固定点収束を著しく安定化させ、高次元の現実的な領域に順応することを示した。
論文 参考訳(メタデータ) (2021-06-28T00:14:11Z) - Robust Implicit Networks via Non-Euclidean Contractions [63.91638306025768]
暗黙のニューラルネットワークは、精度の向上とメモリ消費の大幅な削減を示す。
彼らは不利な姿勢と収束の不安定さに悩まされる。
本論文は,ニューラルネットワークを高機能かつ頑健に設計するための新しい枠組みを提供する。
論文 参考訳(メタデータ) (2021-06-06T18:05:02Z) - Lipschitz Recurrent Neural Networks [100.72827570987992]
我々のリプシッツ再帰ユニットは、他の連続時間RNNと比較して、入力やパラメータの摂動に対してより堅牢であることを示す。
実験により,Lipschitz RNNは,ベンチマークタスクにおいて,既存のリカレントユニットよりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-06-22T08:44:52Z) - A Convex Parameterization of Robust Recurrent Neural Networks [3.2872586139884623]
リカレントニューラルネットワーク(Recurrent Neural Network, RNN)は、シーケンシャル・ツー・シーケンス・マップをモデル化するのによく用いられる非線形力学系のクラスである。
安定性とロバスト性を保証するRNNの凸集合を定式化する。
論文 参考訳(メタデータ) (2020-04-11T03:12:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。