論文の概要: Robustness Analysis of Neural Networks via Efficient Partitioning with
Applications in Control Systems
- arxiv url: http://arxiv.org/abs/2010.00540v2
- Date: Mon, 7 Dec 2020 17:41:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 07:55:02.158111
- Title: Robustness Analysis of Neural Networks via Efficient Partitioning with
Applications in Control Systems
- Title(参考訳): 効率的な分割によるニューラルネットワークのロバスト性解析と制御系への応用
- Authors: Michael Everett, Golnaz Habibi, Jonathan P. How
- Abstract要約: ニューラルネットワーク(NN)は現在、不確実な環境で動作しなければならないシステムに定期的に実装されている。
本稿では、ロバストネス解析アルゴリズムのファミリを提供するために、伝播と分割のアプローチを統合する。
新しいパーティショニング技術は、現在の境界推定値と望ましい境界形状を認識している。
- 参考スコア(独自算出の注目度): 45.35808135708894
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks (NNs) are now routinely implemented on systems that must
operate in uncertain environments, but the tools for formally analyzing how
this uncertainty propagates to NN outputs are not yet commonplace. Computing
tight bounds on NN output sets (given an input set) provides a measure of
confidence associated with the NN decisions and is essential to deploy NNs on
safety-critical systems. Recent works approximate the propagation of sets
through nonlinear activations or partition the uncertainty set to provide a
guaranteed outer bound on the set of possible NN outputs. However, the bound
looseness causes excessive conservatism and/or the computation is too slow for
online analysis. This paper unifies propagation and partition approaches to
provide a family of robustness analysis algorithms that give tighter bounds
than existing works for the same amount of computation time (or reduced
computational effort for a desired accuracy level). Moreover, we provide new
partitioning techniques that are aware of their current bound estimates and
desired boundary shape (e.g., lower bounds, weighted $\ell_\infty$-ball, convex
hull), leading to further improvements in the computation-tightness tradeoff.
The paper demonstrates the tighter bounds and reduced conservatism of the
proposed robustness analysis framework with examples from model-free RL and
forward kinematics learning.
- Abstract(参考訳): ニューラルネットワーク(NN)は現在、不確実な環境で動作しなければならないシステムで定期的に実装されているが、この不確実性がどのようにNN出力に伝播するかを公式に解析するツールは、まだ一般的ではない。
NN出力セット(入力セット)の厳密なバウンダリの計算は、NN決定に関連する信頼性の尺度を提供し、安全クリティカルなシステムにNNをデプロイすることが不可欠である。
最近の研究は、非線形活性化による集合の伝播や不確実性集合の分割を近似し、可能なNN出力の集合に保証外界を与える。
しかし、境界のゆるさは過剰な保守主義を引き起こし、あるいはオンライン分析には計算が遅すぎる。
本稿では,同じ計算時間(あるいは所望の精度レベルでの計算労力の削減)に対して,既存の作業よりも厳密な境界を与えるロバストネス解析アルゴリズムのファミリーを提供するために,伝播と分割のアプローチを統一する。
さらに,現在の境界推定値と所望の境界形状(下限,重み付き$\ell_\infty$-ball,convex hullなど)を認識した新たな分割手法を提供し,計算・密接性トレードオフをさらに改善する。
本稿では,モデルフリーRLとフォワードキネマティックス学習の例を用いて,ロバストネス分析フレームワークの厳密な境界と保守性の低下を示す。
関連論文リスト
- Lyapunov-stable Neural Control for State and Output Feedback: A Novel Formulation [67.63756749551924]
学習ベースのニューラルネットワーク(NN)制御ポリシは、ロボット工学と制御の幅広いタスクにおいて、印象的な経験的パフォーマンスを示している。
非線形力学系を持つNNコントローラのトラクション領域(ROA)に対するリアプノフ安定性の保証は困難である。
我々は、高速な経験的ファルシフィケーションと戦略的正則化を用いて、Lyapunov証明書とともにNNコントローラを学習するための新しいフレームワークを実証する。
論文 参考訳(メタデータ) (2024-04-11T17:49:15Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - Safety Verification for Neural Networks Based on Set-boundary Analysis [5.487915758677295]
ニューラルネットワーク(NN)は、自動運転車のような安全クリティカルなシステムにますます適用されている。
本稿では, NNの安全性検証問題に対するトポロジ的視点から検討するための, 集合境界到達可能性法を提案する。
論文 参考訳(メタデータ) (2022-10-09T05:55:37Z) - Backward Reachability Analysis of Neural Feedback Loops: Techniques for
Linear and Nonlinear Systems [59.57462129637796]
本稿では,ニューラルネットワークを用いた閉ループシステムの安全性検証のための後方到達性アプローチを提案する。
フィードバックループにおけるNNの存在は、その活性化関数の非線形性や、NNモデルは一般に可逆的ではないため、ユニークな問題セットを示す。
フィードフォワードNNで表される制御ポリシを持つ線形系と非線形系のBP過近似を計算するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-28T13:17:28Z) - Backward Reachability Analysis for Neural Feedback Loops [40.989393438716476]
本稿では,ニューラルネットワークを用いた閉ループシステムの安全性検証のための後方到達性アプローチを提案する。
フィードバックループにおけるNNの存在は、その活性化関数の非線形性や、NNモデルは一般に可逆的ではないため、ユニークな問題セットを示す。
本稿では,BP設定した推定値を所定の時間軸上で反復的に求めるアルゴリズムを提案し,計算コストを低くすることで,保守性を最大88%削減できることを示す。
論文 参考訳(メタデータ) (2022-04-14T01:13:14Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Neural network training under semidefinite constraints [0.0]
本稿では,ニューラルネットワーク(NN)の半定制約下でのトレーニングについて述べる。
半定値制約は、NNの興味深い特性を検証するのに使うことができる。
実験では,従来の手法よりも訓練方法が優れていることを示す。
論文 参考訳(メタデータ) (2022-01-03T13:10:49Z) - Reachability Analysis of Neural Feedback Loops [34.94930611635459]
本研究は, NNコントローラ付き閉ループシステム) の前方到達可能なフィードバックループの推定に焦点をあてる。
最近の研究は、これらの到達可能な集合に境界を与えるが、計算的に抽出可能なアプローチは過度に保守的な境界をもたらす。
この研究は、NNコントローラを用いた閉ループシステムの到達可能性解析のための凸最適化問題を定式化することによってギャップを埋める。
論文 参考訳(メタデータ) (2021-08-09T16:11:57Z) - Efficient Reachability Analysis of Closed-Loop Systems with Neural
Network Controllers [39.27951763459939]
本研究は,NNコントローラを用いた前方到達可能な閉ループシステムの推定に焦点をあてる。
最近の研究は到達可能な集合の境界を提供するが、計算効率の高いアプローチは過度に保守的な境界を提供する。
この作業は、NNコントローラによる閉ループシステムの到達可能性解析のための凸最適化問題を定式化することでギャップを埋める。
論文 参考訳(メタデータ) (2021-01-05T22:30:39Z) - Chance-Constrained Control with Lexicographic Deep Reinforcement
Learning [77.34726150561087]
本稿では,レキシックなDeep Reinforcement Learning(DeepRL)に基づく確率制約マルコフ決定プロセスを提案する。
有名なDeepRLアルゴリズムDQNの辞書版も提案され、シミュレーションによって検証されている。
論文 参考訳(メタデータ) (2020-10-19T13:09:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。