論文の概要: Lyapunov-Net: A Deep Neural Network Architecture for Lyapunov Function
Approximation
- arxiv url: http://arxiv.org/abs/2109.13359v1
- Date: Mon, 27 Sep 2021 21:42:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-30 04:47:04.231405
- Title: Lyapunov-Net: A Deep Neural Network Architecture for Lyapunov Function
Approximation
- Title(参考訳): Lyapunov-Net: Lyapunov関数近似のためのディープニューラルネットワークアーキテクチャ
- Authors: Nathan Gaby and Fumin Zhang and Xiaojing Ye
- Abstract要約: 我々は,リャプノフ関数を高次元で近似するために,リャプノフネットと呼ばれる汎用的なディープニューラルネットワークアーキテクチャを開発した。
Lyapunov-Netは正の定性を保証するため、負の軌道微分条件を満たすように容易に訓練することができる。
- 参考スコア(独自算出の注目度): 7.469944784454579
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We develop a versatile deep neural network architecture, called Lyapunov-Net,
to approximate Lyapunov functions of dynamical systems in high dimensions.
Lyapunov-Net guarantees positive definiteness, and thus it can be easily
trained to satisfy the negative orbital derivative condition, which only
renders a single term in the empirical risk function in practice. This
significantly reduces the number of hyper-parameters compared to existing
methods. We also provide theoretical justifications on the approximation power
of Lyapunov-Net and its complexity bounds. We demonstrate the efficiency of the
proposed method on nonlinear dynamical systems involving up to 30-dimensional
state spaces, and show that the proposed approach significantly outperforms the
state-of-the-art methods.
- Abstract(参考訳): 我々は,高次元の力学系のリアプノフ関数を近似するために,lyapunov-netと呼ばれる多彩なディープニューラルネットワークアーキテクチャを開発した。
Lyapunov-Net は正の定性を保証するため、実際には経験的リスク関数において単一の項しか表さない負の軌道微分条件を満たすように容易に訓練することができる。
これにより、既存の方法に比べてハイパーパラメータの数を大幅に削減できる。
また、リアプノフ-ネットの近似力とその複雑性境界に関する理論的正当性も提供する。
最大30次元状態空間を含む非線形力学系における提案手法の効率を実証し,提案手法が最先端手法よりも優れていることを示す。
関連論文リスト
- Learning and Verifying Maximal Taylor-Neural Lyapunov functions [0.4910937238451484]
我々はTaylor-neural Lyapunov関数と呼ばれる新しいニューラルネットワークアーキテクチャを導入する。
このアーキテクチャは局所近似を符号化し、ニューラルネットワークを利用して残差を近似することで世界規模で拡張する。
この研究は制御理論の大幅な進歩を表しており、安定な制御系などの設計に幅広い応用が期待できる。
論文 参考訳(メタデータ) (2024-08-30T12:40:12Z) - Lyapunov-stable Neural Control for State and Output Feedback: A Novel Formulation [67.63756749551924]
学習ベースのニューラルネットワーク(NN)制御ポリシは、ロボット工学と制御の幅広いタスクにおいて、印象的な経験的パフォーマンスを示している。
非線形力学系を持つNNコントローラのトラクション領域(ROA)に対するリアプノフ安定性の保証は困難である。
我々は、高速な経験的ファルシフィケーションと戦略的正則化を用いて、Lyapunov証明書とともにNNコントローラを学習するための新しいフレームワークを実証する。
論文 参考訳(メタデータ) (2024-04-11T17:49:15Z) - Hallmarks of Optimization Trajectories in Neural Networks: Directional Exploration and Redundancy [75.15685966213832]
最適化トラジェクトリのリッチな方向構造をポイントワイズパラメータで解析する。
トレーニング中のスカラーバッチノルムパラメータは,ネットワーク全体のトレーニング性能と一致していることを示す。
論文 参考訳(メタデータ) (2024-03-12T07:32:47Z) - Learning Active Subspaces for Effective and Scalable Uncertainty
Quantification in Deep Neural Networks [13.388835540131508]
本稿では,ニューラルネットワークパラメータの低次元部分空間を構築するための新しい手法を提案する。
その結果, 有効かつスケーラブルなベイズ推定が可能であることを実証した。
提案手法は, 各種回帰タスクに対して, 頑健な不確実性推定を伴う信頼性予測を提供する。
論文 参考訳(メタデータ) (2023-09-06T15:00:36Z) - Guaranteed Conservation of Momentum for Learning Particle-based Fluid
Dynamics [96.9177297872723]
本稿では,学習物理シミュレーションにおける線形運動量を保証する新しい手法を提案する。
我々は、強い制約で運動量の保存を強制し、反対称的な連続的な畳み込み層を通して実現する。
提案手法により,学習シミュレータの物理的精度を大幅に向上させることができる。
論文 参考訳(メタデータ) (2022-10-12T09:12:59Z) - LyaNet: A Lyapunov Framework for Training Neural ODEs [59.73633363494646]
制御理論的リアプノフ条件を用いて常微分方程式を訓練する手法を提案する。
我々のアプローチはLyaNetと呼ばれ、推論ダイナミクスを正しい予測に迅速に収束させる新しいLyapunov損失定式化に基づいている。
論文 参考訳(メタデータ) (2022-02-05T10:13:14Z) - Efficiently Solving High-Order and Nonlinear ODEs with Rational Fraction
Polynomial: the Ratio Net [3.155317790896023]
本研究では、ニューラルネットワークアーキテクチャを導入して、比重ネットと呼ばれる試行関数を構築することで、異なるアプローチをとる。
実証実験により,提案手法は既存手法と比較して高い効率性を示すことを示した。
比重ネットは、微分方程式の解法効率と有効性を向上させることを約束する。
論文 参考訳(メタデータ) (2021-05-18T16:59:52Z) - Formal Synthesis of Lyapunov Neural Networks [61.79595926825511]
本稿では,リアプノフ関数の自動合成法を提案する。
我々は,数値学習者と記号検証器が相互作用して,確実に正しいリアプノフニューラルネットワークを構築する,反例誘導方式を採用する。
提案手法は,Lyapunov関数を他の手法よりも高速かつ広い空間領域で合成する。
論文 参考訳(メタデータ) (2020-03-19T17:21:02Z) - Neural Proximal/Trust Region Policy Optimization Attains Globally
Optimal Policy [119.12515258771302]
オーバーパラメトリゼーションを備えたPPOOの変種が,グローバルな最適ネットワークに収束することを示す。
我々の分析の鍵は、1次元の単調性の概念の下で無限勾配の反復であり、そこでは勾配はネットワークによって瞬く。
論文 参考訳(メタデータ) (2019-06-25T03:20:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。