論文の概要: LyZNet: A Lightweight Python Tool for Learning and Verifying Neural Lyapunov Functions and Regions of Attraction
- arxiv url: http://arxiv.org/abs/2403.10013v1
- Date: Fri, 15 Mar 2024 04:35:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-18 18:38:56.679541
- Title: LyZNet: A Lightweight Python Tool for Learning and Verifying Neural Lyapunov Functions and Regions of Attraction
- Title(参考訳): LyZNet - 神経リプノフ関数の学習と検証のための軽量Pythonツール
- Authors: Jun Liu, Yiming Meng, Maxwell Fitzsimmons, Ruikun Zhou,
- Abstract要約: 安定解析のためのニューラルネットワークリアプノフ関数の統合学習と検証を提供するPythonフレームワークについて述べる。
提案するツールはLyZNetと呼ばれ、物理インフォームドニューラルネットワーク(PINN)を用いてニューラルネットワークを学習して解決する。
このツールは、合成検証のためのネットワークローサブシステムへの自動分解結合非線形システムも提供する。
- 参考スコア(独自算出の注目度): 4.2162963332651575
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we describe a lightweight Python framework that provides integrated learning and verification of neural Lyapunov functions for stability analysis. The proposed tool, named LyZNet, learns neural Lyapunov functions using physics-informed neural networks (PINNs) to solve Zubov's equation and verifies them using satisfiability modulo theories (SMT) solvers. What distinguishes this tool from others in the literature is its ability to provide verified regions of attraction close to the domain of attraction. This is achieved by encoding Zubov's partial differential equation (PDE) into the PINN approach. By embracing the non-convex nature of the underlying optimization problems, we demonstrate that in cases where convex optimization, such as semidefinite programming, fails to capture the domain of attraction, our neural network framework proves more successful. The tool also offers automatic decomposition of coupled nonlinear systems into a network of low-dimensional subsystems for compositional verification. We illustrate the tool's usage and effectiveness with several numerical examples, including both non-trivial low-dimensional nonlinear systems and high-dimensional systems. The repository of the tool can be found at https://git.uwaterloo.ca/hybrid-systems-lab/lyznet.
- Abstract(参考訳): 本稿では、安定解析のためのニューラルネットワークリアプノフ関数の統合学習と検証を提供する軽量Pythonフレームワークについて述べる。
提案手法はLyZNetと呼ばれ,物理インフォームドニューラルネットワーク(PINN)を用いてニューラルリアプノフ関数を学習し,Zubovの方程式を解き,満足度変調理論(SMT)を用いて検証する。
このツールと文学における他のツールとの違いは、アトラクションの領域に近いアトラクションの検証された領域を提供する能力である。
これは、ズボフ偏微分方程式(PDE)をPINNアプローチに符号化することで達成される。
基礎となる最適化問題の非凸性を受け入れることで、半定値プログラミングのような凸最適化がアトラクション領域のキャプチャに失敗した場合、ニューラルネットワークフレームワークがより成功していることを示す。
このツールはまた、結合された非線形システムの合成検証のための低次元サブシステムのネットワークへの自動分解も提供する。
本稿では,非自明な低次元非線形システムと高次元システムの両方を含むいくつかの数値例を用いて,ツールの使用状況と有効性を説明する。
ツールのリポジトリはhttps://git.uwaterloo.ca/hybrid-systems-lab/lyznetにある。
関連論文リスト
- DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [63.5925701087252]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - The Convex Landscape of Neural Networks: Characterizing Global Optima
and Stationary Points via Lasso Models [75.33431791218302]
ディープニューラルネットワーク(DNN)モデルは、プログラミング目的に使用される。
本稿では,凸型神経回復モデルについて検討する。
定常的非次元目的物はすべて,グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
また, 静止非次元目的物はすべて, グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
論文 参考訳(メタデータ) (2023-12-19T23:04:56Z) - Physics-Informed Neural Network Lyapunov Functions: PDE Characterization, Learning, and Verification [4.2162963332651575]
神経リプノフ関数の訓練においてズボフ方程式を用いることで、アトラクションの真の領域に近いアトラクションの近似領域が得られることを示す。
次に、学習したリプノフ関数に対して十分条件を提供し、満足度モジュラー理論により容易に検証できる。
論文 参考訳(メタデータ) (2023-12-14T17:01:58Z) - Solving Elliptic Optimal Control Problems via Neural Networks and Optimality System [3.8704302640118864]
最適制御問題に対するニューラルネットワークに基づく解法(ボックス制約付き/なし)について検討する。
削減されたシステムのソリューションを表現するために、ディープニューラルネットワークを使用している。
本手法を説明するためにいくつかの数値例を提示し,既存の2つの数値例と比較する。
論文 参考訳(メタデータ) (2023-08-23T05:18:19Z) - Promises and Pitfalls of the Linearized Laplace in Bayesian Optimization [73.80101701431103]
線形化ラプラス近似(LLA)はベイズニューラルネットワークの構築に有効で効率的であることが示されている。
ベイズ最適化におけるLLAの有用性について検討し,その性能と柔軟性を強調した。
論文 参考訳(メタデータ) (2023-04-17T14:23:43Z) - FuNNscope: Visual microscope for interactively exploring the loss
landscape of fully connected neural networks [77.34726150561087]
ニューラルネットワークの高次元景観特性を探索する方法を示す。
我々は、小さなニューラルネットワークの観測結果をより複雑なシステムに一般化する。
インタラクティブダッシュボードは、いくつかのアプリケーションネットワークを開放する。
論文 参考訳(メタデータ) (2022-04-09T16:41:53Z) - Level set learning with pseudo-reversible neural networks for nonlinear
dimension reduction in function approximation [8.28646586439284]
本稿では,関数近似のための学習レベルセット(DRiLLS)を用いた次元削減手法を提案する。
提案手法は,高次元の入力変数を高次元のアクティブ変数に効果的に変換する擬似可逆ニューラルネットワーク(PRNN)モジュールである。
PRNNは、RevNetの使用によりNLL法に存在する非線形変換の可逆性制約を緩和するだけでなく、各サンプルの影響を適応的に重み付けし、学習された能動変数に対する関数の感度を制御する。
論文 参考訳(メタデータ) (2021-12-02T17:25:34Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - CDiNN -Convex Difference Neural Networks [0.8122270502556374]
reluアクティベーション関数を持つニューラルネットワークは、普遍関数近似が非スムース関数として関数マッピングを学ぶことが示されている。
ICNNと呼ばれる新しいニューラルネットワークアーキテクチャは、凸入力として出力を学習する。
論文 参考訳(メタデータ) (2021-03-31T17:31:16Z) - Neural Network Approximations of Compositional Functions With
Applications to Dynamical Systems [3.660098145214465]
我々は,合成関数とそのニューラルネットワーク近似の近似理論を開発した。
構成関数の重要な特徴の集合と,ニューラルネットワークの特徴と複雑性の関係を同定する。
関数近似に加えて、ニューラルネットワークの誤差上限の式もいくつか証明する。
論文 参考訳(メタデータ) (2020-12-03T04:40:25Z) - Formal Synthesis of Lyapunov Neural Networks [61.79595926825511]
本稿では,リアプノフ関数の自動合成法を提案する。
我々は,数値学習者と記号検証器が相互作用して,確実に正しいリアプノフニューラルネットワークを構築する,反例誘導方式を採用する。
提案手法は,Lyapunov関数を他の手法よりも高速かつ広い空間領域で合成する。
論文 参考訳(メタデータ) (2020-03-19T17:21:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。