論文の概要: Recurrent Equilibrium Networks: Unconstrained Learning of Stable and
Robust Dynamical Models
- arxiv url: http://arxiv.org/abs/2104.05942v1
- Date: Tue, 13 Apr 2021 05:09:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-14 13:16:00.157284
- Title: Recurrent Equilibrium Networks: Unconstrained Learning of Stable and
Robust Dynamical Models
- Title(参考訳): リカレント平衡ネットワーク:安定かつロバストな力学モデルの無拘束学習
- Authors: Max Revay, Ruigang Wang, Ian R. Manchester
- Abstract要約: 本稿では,機械学習とシステム同定のための新しい非線形力学モデルであるrens(recurrent equilibrium network)について述べる。
REN は RN のベクトルによって直接パラメータ化される。
安定性と堅牢性は パラメータ制約なしで保証されます
ベンチマーク非線形システム同定問題に対して,新しいモデルセットのロバスト性の評価を行った。
- 参考スコア(独自算出の注目度): 4.83420384410068
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces recurrent equilibrium networks (RENs), a new class of
nonlinear dynamical models for applications in machine learning and system
identification. The new model class has "built in" guarantees of stability and
robustness: all models in the class are contracting -- a strong form of
nonlinear stability -- and models can have prescribed Lipschitz bounds. RENs
are otherwise very flexible: they can represent all stable linear systems, all
previously-known sets of contracting recurrent neural networks, all deep
feedforward neural networks, and all stable Wiener/Hammerstein models. RENs are
parameterized directly by a vector in R^N, i.e. stability and robustness are
ensured without parameter constraints, which simplifies learning since generic
methods for unconstrained optimization can be used. The performance of the
robustness of the new model set is evaluated on benchmark nonlinear system
identification problems.
- Abstract(参考訳): 本稿では,機械学習とシステム同定のための新しい非線形力学モデルであるrens(recurrent equilibrium network)について述べる。
新しいモデルクラスは、安定性とロバスト性を保証する「組み込まれている」:クラス内の全てのモデル -- 強い非線形安定性の形式 -- が収縮しており、モデルは所定のリプシッツ境界を持つことができる。
renは、すべての安定線形システム、すべての既知の契約型リカレントニューラルネットワーク、すべてのディープフィードフォワードニューラルネットワーク、およびすべての安定wiener/hammersteinモデルを表現することができる。
REN は R^N のベクトルによって直接パラメータ化される。
安定性と堅牢性はパラメータ制約なしで確保されるため、制約のない最適化のための一般的な方法を使用することができるため、学習が簡単になる。
ベンチマーク非線形システム同定問題に対して,新しいモデルセットのロバスト性の評価を行った。
関連論文リスト
- Learning to Boost the Performance of Stable Nonlinear Systems [0.0]
クローズドループ安定性保証による性能ブースティング問題に対処する。
本手法は,安定な非線形システムのための性能ブースティング制御器のニューラルネットワーククラスを任意に学習することを可能にする。
論文 参考訳(メタデータ) (2024-05-01T21:11:29Z) - Towards Continual Learning Desiderata via HSIC-Bottleneck
Orthogonalization and Equiangular Embedding [55.107555305760954]
本稿では,レイヤワイドパラメータのオーバーライトや決定境界の歪みに起因する,概念的にシンプルで効果的な手法を提案する。
提案手法は,ゼロの指数バッファと1.02倍の差が絶対的に優れていても,競争精度が向上する。
論文 参考訳(メタデータ) (2024-01-17T09:01:29Z) - Learning Over Contracting and Lipschitz Closed-Loops for
Partially-Observed Nonlinear Systems (Extended Version) [1.2430809884830318]
本稿では非線形な部分観測力学系に対する学習に基づく制御のためのポリシーパラメータ化を提案する。
結果のYoula-RENパラメータ化は自動的に安定性(収縮)とユーザチューニング可能な堅牢性(Lipschitz)を満足することを示した。
We found that the Youla-REN are also like to existing learning-based and optimal control method, also ensure stability and exhibiting improve robustness to adversarial disturbances。
論文 参考訳(メタデータ) (2023-04-12T23:55:56Z) - KCRL: Krasovskii-Constrained Reinforcement Learning with Guaranteed
Stability in Nonlinear Dynamical Systems [66.9461097311667]
形式的安定性を保証するモデルに基づく強化学習フレームワークを提案する。
提案手法は,特徴表現を用いて信頼区間までシステムダイナミクスを学習する。
我々は、KCRLが、基礎となる未知のシステムとの有限数の相互作用において安定化ポリシーを学ぶことが保証されていることを示す。
論文 参考訳(メタデータ) (2022-06-03T17:27:04Z) - A Priori Denoising Strategies for Sparse Identification of Nonlinear
Dynamical Systems: A Comparative Study [68.8204255655161]
本研究では, 局所的およびグローバルな平滑化手法の性能と, 状態測定値の偏差について検討・比較する。
一般に,測度データセット全体を用いたグローバルな手法は,局所点の周辺に隣接するデータサブセットを用いる局所的手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-01-29T23:31:25Z) - Learning over All Stabilizing Nonlinear Controllers for a
Partially-Observed Linear System [4.3012765978447565]
線形力学系に対する非線形出力フィードバックコントローラのパラメータ化を提案する。
提案手法は, 制約を満たすことなく, 部分的に観測可能な線形力学系の閉ループ安定性を保証する。
論文 参考訳(メタデータ) (2021-12-08T10:43:47Z) - Youla-REN: Learning Nonlinear Feedback Policies with Robust Stability
Guarantees [5.71097144710995]
本稿では,最近開発されたニューラルネットワークアーキテクチャ上に構築された不確実性システムに対する非線形制御器のパラメータ化について述べる。
提案したフレームワークは、安定性の保証、すなわち、検索空間におけるすべてのポリシーが、契約(グローバルに指数関数的に安定した)クローズドループシステムをもたらすことを保証する。
論文 参考訳(メタデータ) (2021-12-02T13:52:37Z) - Stabilizing Equilibrium Models by Jacobian Regularization [151.78151873928027]
ディープ均衡ネットワーク(Deep equilibrium Network, DEQs)は、単一非線形層の固定点を見つけるために従来の深さを推定する新しいモデルのクラスである。
本稿では、平衡モデルの学習を安定させるために、固定点更新方程式のヤコビアンを明示的に正規化するDECモデルの正規化スキームを提案する。
この正規化は計算コストを最小限に抑え、前方と後方の両方の固定点収束を著しく安定化させ、高次元の現実的な領域に順応することを示した。
論文 参考訳(メタデータ) (2021-06-28T00:14:11Z) - Robust Implicit Networks via Non-Euclidean Contractions [63.91638306025768]
暗黙のニューラルネットワークは、精度の向上とメモリ消費の大幅な削減を示す。
彼らは不利な姿勢と収束の不安定さに悩まされる。
本論文は,ニューラルネットワークを高機能かつ頑健に設計するための新しい枠組みを提供する。
論文 参考訳(メタデータ) (2021-06-06T18:05:02Z) - Lipschitz Recurrent Neural Networks [100.72827570987992]
我々のリプシッツ再帰ユニットは、他の連続時間RNNと比較して、入力やパラメータの摂動に対してより堅牢であることを示す。
実験により,Lipschitz RNNは,ベンチマークタスクにおいて,既存のリカレントユニットよりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-06-22T08:44:52Z) - A Convex Parameterization of Robust Recurrent Neural Networks [3.2872586139884623]
リカレントニューラルネットワーク(Recurrent Neural Network, RNN)は、シーケンシャル・ツー・シーケンス・マップをモデル化するのによく用いられる非線形力学系のクラスである。
安定性とロバスト性を保証するRNNの凸集合を定式化する。
論文 参考訳(メタデータ) (2020-04-11T03:12:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。