論文の概要: Physics-Informed Neural Network Lyapunov Functions: PDE Characterization, Learning, and Verification
- arxiv url: http://arxiv.org/abs/2312.09131v4
- Date: Fri, 10 Jan 2025 23:30:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-14 14:20:40.608489
- Title: Physics-Informed Neural Network Lyapunov Functions: PDE Characterization, Learning, and Verification
- Title(参考訳): 物理インフォームドニューラルネットワークリアプノフ関数:PDEの特性評価,学習,検証
- Authors: Jun Liu, Yiming Meng, Maxwell Fitzsimmons, Ruikun Zhou,
- Abstract要約: 神経リプノフ関数の訓練においてズボフ方程式を用いることで、アトラクションの真の領域に近いアトラクションの近似領域が得られることを示す。
次に、学習したリプノフ関数に対して十分条件を提供し、満足度モジュラー理論により容易に検証できる。
- 参考スコア(独自算出の注目度): 4.2162963332651575
- License:
- Abstract: We provide a systematic investigation of using physics-informed neural networks to compute Lyapunov functions. We encode Lyapunov conditions as a partial differential equation (PDE) and use this for training neural network Lyapunov functions. We analyze the analytical properties of the solutions to the Lyapunov and Zubov PDEs. In particular, we show that employing the Zubov equation in training neural Lyapunov functions can lead to approximate regions of attraction close to the true domain of attraction. We also examine approximation errors and the convergence of neural approximations to the unique solution of Zubov's equation. We then provide sufficient conditions for the learned neural Lyapunov functions that can be readily verified by satisfiability modulo theories (SMT) solvers, enabling formal verification of both local stability analysis and region-of-attraction estimates in the large. Through a number of nonlinear examples, ranging from low to high dimensions, we demonstrate that the proposed framework can outperform traditional sums-of-squares (SOS) Lyapunov functions obtained using semidefinite programming (SDP).
- Abstract(参考訳): 本稿では,Lyapunov関数の計算に物理インフォームドニューラルネットワークを用いる方式について検討する。
我々は、Lyapunov条件を偏微分方程式(PDE)としてエンコードし、これをニューラルネットワークLyapunov関数のトレーニングに使用する。
Lyapunov および Zubov PDE に対する解の解析的性質を解析した。
特に、神経リプノフ関数の訓練においてズボフ方程式を用いることで、アトラクションの真の領域に近いアトラクションの近似領域が得られることを示す。
また、ズボフ方程式のユニークな解に対する近似誤差と神経近似の収束についても検討する。
次に,SMT(Satisfiability modulo theory)ソルバにより容易に検証できる学習ニューラルリアプノフ関数について十分な条件を提供し,局所安定性解析と大域における領域抽出推定の両方の形式的検証を可能にする。
低次元から高次元まで、多くの非線形例を通して、提案フレームワークは半定値プログラミング(SDP)を用いて得られる従来の和(SOS)リャプノフ関数より優れていることを示した。
関連論文リスト
- DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [63.5925701087252]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - LyZNet: A Lightweight Python Tool for Learning and Verifying Neural Lyapunov Functions and Regions of Attraction [4.2162963332651575]
安定解析のためのニューラルネットワークリアプノフ関数の統合学習と検証を提供するPythonフレームワークについて述べる。
提案するツールはLyZNetと呼ばれ、物理インフォームドニューラルネットワーク(PINN)を用いてニューラルネットワークを学習して解決する。
このツールは、合成検証のためのネットワークローサブシステムへの自動分解結合非線形システムも提供する。
論文 参考訳(メタデータ) (2024-03-15T04:35:56Z) - RBF-PINN: Non-Fourier Positional Embedding in Physics-Informed Neural Networks [1.9819034119774483]
特定の状況下で広く使われているFourierベースの特徴マッピングの限界を強調した。
条件付き正定根基関数の使用を提案する。
我々の手法は座標に基づく入力ニューラルネットワークにシームレスに統合できる。
論文 参考訳(メタデータ) (2024-02-13T10:54:43Z) - Promises and Pitfalls of the Linearized Laplace in Bayesian Optimization [73.80101701431103]
線形化ラプラス近似(LLA)はベイズニューラルネットワークの構築に有効で効率的であることが示されている。
ベイズ最適化におけるLLAの有用性について検討し,その性能と柔軟性を強調した。
論文 参考訳(メタデータ) (2023-04-17T14:23:43Z) - Monte Carlo Neural PDE Solver for Learning PDEs via Probabilistic Representation [59.45669299295436]
教師なしニューラルソルバのトレーニングのためのモンテカルロPDEソルバを提案する。
我々は、マクロ現象をランダム粒子のアンサンブルとみなすPDEの確率的表現を用いる。
対流拡散, アレン・カーン, ナヴィエ・ストークス方程式に関する実験により, 精度と効率が著しく向上した。
論文 参考訳(メタデータ) (2023-02-10T08:05:19Z) - Convergence analysis of unsupervised Legendre-Galerkin neural networks
for linear second-order elliptic PDEs [0.8594140167290099]
教師なしレジェンダ-ガレルキンニューラルネットワーク(ULGNet)の収束解析を行う。
ULGNetは偏微分方程式(PDE)を解くためのディープラーニングに基づく数値法である
論文 参考訳(メタデータ) (2022-11-16T13:31:03Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - A Physics Informed Neural Network Approach to Solution and
Identification of Biharmonic Equations of Elasticity [0.0]
本研究では,エアリーストレス関数とフーリエ級数を組み合わせた物理情報ニューラルネットワーク(PINN)の適用について検討する。
両高調波PDEに対するPINNソリューションの精度は, エアリー応力関数による特徴空間の強化により著しく向上することがわかった。
論文 参考訳(メタデータ) (2021-08-16T17:19:50Z) - Neural Network Approximations of Compositional Functions With
Applications to Dynamical Systems [3.660098145214465]
我々は,合成関数とそのニューラルネットワーク近似の近似理論を開発した。
構成関数の重要な特徴の集合と,ニューラルネットワークの特徴と複雑性の関係を同定する。
関数近似に加えて、ニューラルネットワークの誤差上限の式もいくつか証明する。
論文 参考訳(メタデータ) (2020-12-03T04:40:25Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Formal Synthesis of Lyapunov Neural Networks [61.79595926825511]
本稿では,リアプノフ関数の自動合成法を提案する。
我々は,数値学習者と記号検証器が相互作用して,確実に正しいリアプノフニューラルネットワークを構築する,反例誘導方式を採用する。
提案手法は,Lyapunov関数を他の手法よりも高速かつ広い空間領域で合成する。
論文 参考訳(メタデータ) (2020-03-19T17:21:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。