論文の概要: Certifying Incremental Quadratic Constraints for Neural Networks via
Convex Optimization
- arxiv url: http://arxiv.org/abs/2012.05981v3
- Date: Fri, 30 Apr 2021 22:37:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-15 06:07:53.287008
- Title: Certifying Incremental Quadratic Constraints for Neural Networks via
Convex Optimization
- Title(参考訳): 凸最適化によるニューラルネットワークのインクリメンタル2次制約の認定
- Authors: Navid Hashemi, Justin Ruths, Mahyar Fazlyab
- Abstract要約: 我々は,関心領域上のニューラルネットワークのマップ上で漸進的二次的制約を証明するための凸プログラムを提案する。
証明書は、(ローカル)Lipschitz連続性、片側Lipschitz連続性、反転性、および収縮などのいくつかの有用な特性をキャプチャできます。
- 参考スコア(独自算出の注目度): 2.388501293246858
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Abstracting neural networks with constraints they impose on their inputs and
outputs can be very useful in the analysis of neural network classifiers and to
derive optimization-based algorithms for certification of stability and
robustness of feedback systems involving neural networks. In this paper, we
propose a convex program, in the form of a Linear Matrix Inequality (LMI), to
certify incremental quadratic constraints on the map of neural networks over a
region of interest. These certificates can capture several useful properties
such as (local) Lipschitz continuity, one-sided Lipschitz continuity,
invertibility, and contraction. We illustrate the utility of our approach in
two different settings. First, we develop a semidefinite program to compute
guaranteed and sharp upper bounds on the local Lipschitz constant of neural
networks and illustrate the results on random networks as well as networks
trained on MNIST. Second, we consider a linear time-invariant system in
feedback with an approximate model predictive controller parameterized by a
neural network. We then turn the stability analysis into a semidefinite
feasibility program and estimate an ellipsoidal invariant set for the
closed-loop system.
- Abstract(参考訳): ニューラルネットワークが入力や出力に課す制約を抽象化することは、ニューラルネットワーク分類器の分析や、ニューラルネットワークを含むフィードバックシステムの安定性と堅牢性を保証する最適化ベースのアルゴリズムの導出に非常に有用である。
本稿では,LMI(Linear Matrix Inequality)という形で,関心領域におけるニューラルネットワークのマップ上の漸進的な二次的制約を証明するための凸プログラムを提案する。
これらの証明は、(局所)リプシッツ連続性、片側リプシッツ連続性、可逆性、収縮など、いくつかの有用な性質を捉えることができる。
このアプローチの有用性を2つの異なる設定で説明します。
まず,ニューラルネットワークの局所リプシッツ定数の上限の保証とシャープを計算し,ランダムネットワークとmnistでトレーニングされたネットワーク上での結果を説明する半定値プログラムを開発した。
第二に,ニューラルネットワークによってパラメータ化される近似モデル予測制御器を用いたフィードバックにおける線形時間不変システムを考える。
次に、安定性解析を半確定実現プログラムに変換し、閉ループ系に対する楕円不変集合を推定する。
関連論文リスト
- LinSATNet: The Positive Linear Satisfiability Neural Networks [116.65291739666303]
本稿では,ニューラルネットワークに人気の高い正の線形満足度を導入する方法について検討する。
本稿では,古典的なシンクホーンアルゴリズムを拡張し,複数の辺分布の集合を共同で符号化する,最初の微分可能満足層を提案する。
論文 参考訳(メタデータ) (2024-07-18T22:05:21Z) - Learning-Based Verification of Stochastic Dynamical Systems with Neural Network Policies [7.9898826915621965]
我々は、他のニューラルネットワークをトレーニングする検証手順を使用し、ポリシーがタスクを満足することを示す証明書として機能する。
リーチ回避タスクでは、この証明ネットワークがリーチ回避スーパーマーチンゲール(RASM)であることを示すのに十分である。
論文 参考訳(メタデータ) (2024-06-02T18:19:19Z) - Scalable Bayesian Inference in the Era of Deep Learning: From Gaussian Processes to Deep Neural Networks [0.5827521884806072]
大規模なデータセットでトレーニングされた大規模なニューラルネットワークは、マシンラーニングの主要なパラダイムになっています。
この論文は、モデル不確実性を持つニューラルネットワークを装備するためのスケーラブルな手法を開発する。
論文 参考訳(メタデータ) (2024-04-29T23:38:58Z) - The Convex Landscape of Neural Networks: Characterizing Global Optima
and Stationary Points via Lasso Models [75.33431791218302]
ディープニューラルネットワーク(DNN)モデルは、プログラミング目的に使用される。
本稿では,凸型神経回復モデルについて検討する。
定常的非次元目的物はすべて,グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
また, 静止非次元目的物はすべて, グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
論文 参考訳(メタデータ) (2023-12-19T23:04:56Z) - Gradient Descent in Neural Networks as Sequential Learning in RKBS [63.011641517977644]
初期重みの有限近傍にニューラルネットワークの正確な電力系列表現を構築する。
幅にかかわらず、勾配降下によって生成されたトレーニングシーケンスは、正規化された逐次学習によって正確に複製可能であることを証明した。
論文 参考訳(メタデータ) (2023-02-01T03:18:07Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - Lipschitz Recurrent Neural Networks [100.72827570987992]
我々のリプシッツ再帰ユニットは、他の連続時間RNNと比較して、入力やパラメータの摂動に対してより堅牢であることを示す。
実験により,Lipschitz RNNは,ベンチマークタスクにおいて,既存のリカレントユニットよりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-06-22T08:44:52Z) - The Hidden Convex Optimization Landscape of Two-Layer ReLU Neural
Networks: an Exact Characterization of the Optimal Solutions [51.60996023961886]
コーン制約のある凸最適化プログラムを解くことにより,グローバルな2層ReLUニューラルネットワークの探索が可能であることを示す。
我々の分析は新しく、全ての最適解を特徴づけ、最近、ニューラルネットワークのトレーニングを凸空間に持ち上げるために使われた双対性に基づく分析を活用できない。
論文 参考訳(メタデータ) (2020-06-10T15:38:30Z) - Lipschitz constant estimation of Neural Networks via sparse polynomial
optimization [47.596834444042685]
LiPoptは、ニューラルネットワークのリプシッツ定数上のより厳密な上限を計算するためのフレームワークである。
ネットワークの疎結合性を利用して、ネットワークの複雑さを大幅に軽減する方法を示す。
ランダムな重みを持つネットワークと、MNISTで訓練されたネットワークで実験を行う。
論文 参考訳(メタデータ) (2020-04-18T18:55:02Z) - Reach-SDP: Reachability Analysis of Closed-Loop Systems with Neural
Network Controllers via Semidefinite Programming [19.51345816555571]
本稿では,ニューラルネットワークを用いた線形時間変化システムの安全性検証のための新しいフォワードリーチビリティ解析手法を提案する。
半有限計画法を用いて、これらの近似到達可能な集合を計算できることが示される。
提案手法は,まずディープニューラルネットワークを用いて非線形モデル予測制御器を近似し,その解析ツールを用いて閉ループシステムの有限時間到達性と制約満足度を証明した。
論文 参考訳(メタデータ) (2020-04-16T18:48:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。