論文の概要: LyaNet: A Lyapunov Framework for Training Neural ODEs
- arxiv url: http://arxiv.org/abs/2202.02526v1
- Date: Sat, 5 Feb 2022 10:13:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-08 14:17:12.888800
- Title: LyaNet: A Lyapunov Framework for Training Neural ODEs
- Title(参考訳): LyaNet: ニューラルネットワークをトレーニングするためのLyapunovフレームワーク
- Authors: Ivan Dario Jimenez Rodriguez, Aaron D. Ames, Yisong Yue
- Abstract要約: 制御理論的リアプノフ条件を用いて常微分方程式を訓練する手法を提案する。
我々のアプローチはLyaNetと呼ばれ、推論ダイナミクスを正しい予測に迅速に収束させる新しいLyapunov損失定式化に基づいている。
- 参考スコア(独自算出の注目度): 59.73633363494646
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a method for training ordinary differential equations by using a
control-theoretic Lyapunov condition for stability. Our approach, called
LyaNet, is based on a novel Lyapunov loss formulation that encourages the
inference dynamics to converge quickly to the correct prediction.
Theoretically, we show that minimizing Lyapunov loss guarantees exponential
convergence to the correct solution and enables a novel robustness guarantee.
We also provide practical algorithms, including one that avoids the cost of
backpropagating through a solver or using the adjoint method. Relative to
standard Neural ODE training, we empirically find that LyaNet can offer
improved prediction performance, faster convergence of inference dynamics, and
improved adversarial robustness. Our code available at
https://github.com/ivandariojr/LyapunovLearning .
- Abstract(参考訳): 安定のための制御理論ライプノフ条件を用いた常微分方程式の学習法を提案する。
我々のアプローチはLyaNetと呼ばれ、推論ダイナミクスを正しい予測に迅速に収束させる新しいLyapunov損失定式化に基づいている。
理論的には、リアプノフ損失の最小化は正しい解への指数収束を保証し、新しい堅牢性を保証する。
また, 解法や随伴法を用いて解法をバックプロパゲーションするコストを回避するアルゴリズムなど, 実用的なアルゴリズムを提供する。
従来のニューラルODEトレーニングと比較して、LyaNetは予測性能の向上、推論ダイナミクスの収束の高速化、対向ロバスト性の向上を実証的に実現している。
私たちのコードはhttps://github.com/ivandariojr/lyapunovlearningで利用可能です。
関連論文リスト
- Lyapunov-stable Neural Control for State and Output Feedback: A Novel Formulation [67.63756749551924]
学習ベースのニューラルネットワーク(NN)制御ポリシは、ロボット工学と制御の幅広いタスクにおいて、印象的な経験的パフォーマンスを示している。
非線形力学系を持つNNコントローラのトラクション領域(ROA)に対するリアプノフ安定性の保証は困難である。
我々は、高速な経験的ファルシフィケーションと戦略的正則化を用いて、Lyapunov証明書とともにNNコントローラを学習するための新しいフレームワークを実証する。
論文 参考訳(メタデータ) (2024-04-11T17:49:15Z) - Fixing the NTK: From Neural Network Linearizations to Exact Convex
Programs [63.768739279562105]
学習目標に依存しない特定のマスクウェイトを選択する場合、このカーネルはトレーニングデータ上のゲートReLUネットワークのNTKと等価であることを示す。
この目標への依存の欠如の結果として、NTKはトレーニングセット上の最適MKLカーネルよりもパフォーマンスが良くない。
論文 参考訳(メタデータ) (2023-09-26T17:42:52Z) - Implementation and (Inverse Modified) Error Analysis for
implicitly-templated ODE-nets [0.0]
我々は,暗黙的な数値初期値問題解法に基づいてテンプレート化されたODE-netを用いてデータから未知のダイナミクスを学習することに焦点を当てた。
我々は,非ロール型暗黙的スキームを用いて,ODE-netの逆修正誤り解析を行い,解釈を容易にする。
我々は,誤差のレベルを監視し,暗黙的な解反復数に適応する適応アルゴリズムを定式化する。
論文 参考訳(メタデータ) (2023-03-31T06:47:02Z) - An Inexact Augmented Lagrangian Algorithm for Training Leaky ReLU Neural
Network with Group Sparsity [13.27709100571336]
近年,グループ正規化期間を持つリーク型ReLUネットワークが広く利用されている。
定常点を決定論的に計算する手法が存在しないことを示す。
本稿では,新しいモデルを解くための不正確な拡張ラグランジアンアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-11T11:53:15Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Fast Convex Optimization for Two-Layer ReLU Networks: Equivalent Model
Classes and Cone Decompositions [41.337814204665364]
ReLUアクティベーション機能を持つ2層ニューラルネットワークの凸最適化アルゴリズムを開発した。
凸ゲート型ReLUモデルでは,ReLUトレーニング問題に対するデータ依存の近似バウンダリが得られることを示す。
論文 参考訳(メタデータ) (2022-02-02T23:50:53Z) - Lyapunov-Net: A Deep Neural Network Architecture for Lyapunov Function
Approximation [7.469944784454579]
我々は,リャプノフ関数を高次元で近似するために,リャプノフネットと呼ばれる汎用的なディープニューラルネットワークアーキテクチャを開発した。
Lyapunov-Netは正の定性を保証するため、負の軌道微分条件を満たすように容易に訓練することができる。
論文 参考訳(メタデータ) (2021-09-27T21:42:19Z) - Meta-Solver for Neural Ordinary Differential Equations [77.8918415523446]
本研究では,ソルバ空間の変動がニューラルODEの性能を向上する方法について検討する。
解法パラメータ化の正しい選択は, 敵の攻撃に対するロバスト性の観点から, 神経odesモデルに大きな影響を与える可能性がある。
論文 参考訳(メタデータ) (2021-03-15T17:26:34Z) - Neural Control Variates [71.42768823631918]
ニューラルネットワークの集合が、積分のよい近似を見つけるという課題に直面していることを示す。
理論的に最適な分散最小化損失関数を導出し、実際に安定したオンライントレーニングを行うための代替の複合損失を提案する。
具体的には、学習した光場近似が高次バウンスに十分な品質であることを示し、誤差補正を省略し、無視可能な可視バイアスのコストでノイズを劇的に低減できることを示した。
論文 参考訳(メタデータ) (2020-06-02T11:17:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。