論文の概要: Neural Network Verification in Control
- arxiv url: http://arxiv.org/abs/2110.01388v1
- Date: Thu, 30 Sep 2021 22:28:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-07 08:40:12.590575
- Title: Neural Network Verification in Control
- Title(参考訳): 制御におけるニューラルネットワークの検証
- Authors: Michael Everett
- Abstract要約: このチュートリアルはまず、NNの堅牢性を検証する最新のテクニックを紹介し、統一する。
その後、これらの技術は、神経フィードバックループの正式な保証を提供するように拡張される。
提案したツールは, 閉ループ到達性解析と頑健な深層強化学習を可能にする。
- 参考スコア(独自算出の注目度): 3.3123634393237706
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning-based methods could provide solutions to many of the long-standing
challenges in control. However, the neural networks (NNs) commonly used in
modern learning approaches present substantial challenges for analyzing the
resulting control systems' safety properties. Fortunately, a new body of
literature could provide tractable methods for analysis and verification of
these high dimensional, highly nonlinear representations. This tutorial first
introduces and unifies recent techniques (many of which originated in the
computer vision and machine learning communities) for verifying robustness
properties of NNs. The techniques are then extended to provide formal
guarantees of neural feedback loops (e.g., closed-loop system with NN control
policy). The provided tools are shown to enable closed-loop reachability
analysis and robust deep reinforcement learning.
- Abstract(参考訳): 学習ベースの手法は、コントロールにおける長年の課題の多くに解決策を提供することができる。
しかし、現代の学習手法で一般的に使用されるニューラルネットワーク(NN)は、結果の制御システムの安全性特性を分析する上で大きな課題となる。
幸いなことに、新しい文献体系は、これらの高次元、高非線形表現の分析と検証のための扱いやすい方法を提供することができた。
このチュートリアルは、NNの堅牢性を検証する最新の技術(多くはコンピュータビジョンと機械学習コミュニティに由来する)を紹介し、統合する。
これらの技術は、神経フィードバックループ(例えば、NN制御ポリシー付きクローズドループシステム)の正式な保証を提供するために拡張される。
提案したツールは, 閉ループ到達性解析と堅牢な深層強化学習を可能にする。
関連論文リスト
- Lyapunov-stable Neural Control for State and Output Feedback: A Novel Formulation [67.63756749551924]
学習ベースのニューラルネットワーク(NN)制御ポリシは、ロボット工学と制御の幅広いタスクにおいて、印象的な経験的パフォーマンスを示している。
非線形力学系を持つNNコントローラのトラクション領域(ROA)に対するリアプノフ安定性の保証は困難である。
我々は、高速な経験的ファルシフィケーションと戦略的正則化を用いて、Lyapunov証明書とともにNNコントローラを学習するための新しいフレームワークを実証する。
論文 参考訳(メタデータ) (2024-04-11T17:49:15Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Backward Reachability Analysis of Neural Feedback Loops: Techniques for
Linear and Nonlinear Systems [59.57462129637796]
本稿では,ニューラルネットワークを用いた閉ループシステムの安全性検証のための後方到達性アプローチを提案する。
フィードバックループにおけるNNの存在は、その活性化関数の非線形性や、NNモデルは一般に可逆的ではないため、ユニークな問題セットを示す。
フィードフォワードNNで表される制御ポリシを持つ線形系と非線形系のBP過近似を計算するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-28T13:17:28Z) - Reachability Analysis of a General Class of Neural Ordinary Differential
Equations [7.774796410415387]
連続的なディープラーニングモデル(Neural Ordinary Differential Equations (Neural ODEs)と呼ばれる)は、ここ数年でかなりの注目を集めている。
その衝撃にもかかわらず、これらのシステムには公式な分析技術が欠如している。
我々は,それらの行動の形式的分析を可能にする,新しい到達可能性フレームワークを導入する。
論文 参考訳(メタデータ) (2022-07-13T22:05:52Z) - Imbedding Deep Neural Networks [0.0]
ニューラルODEのような連続深度ニューラルネットワークは、非線形ベクトル値の最適制御問題の観点から、残留ニューラルネットワークの理解を再燃させた。
本稿では,ネットワークの深さを基本変数とする新しい手法を提案する。
論文 参考訳(メタデータ) (2022-01-31T22:00:41Z) - Provable Regret Bounds for Deep Online Learning and Control [77.77295247296041]
我々は、損失関数がニューラルネットワークのパラメータを最適化するために適応できることを示し、後から最も優れたネットと競合することを示す。
オンライン設定におけるこれらの結果の適用として、オンライン制御コントローラの証明可能なバウンダリを得る。
論文 参考訳(メタデータ) (2021-10-15T02:13:48Z) - OVERT: An Algorithm for Safety Verification of Neural Network Control
Policies for Nonlinear Systems [31.3812947670948]
本稿では,ニューラルネットワーク制御ポリシーの安全性検証のための音響アルゴリズムOVERTを提案する。
OVERT の中心的な概念は、最適にきつく片方向の線形境界を持つ非線形関数を抽象化することである。
オーバートは、到達可能な集合の時間的および厳密性の両方において、既存の方法と好意的に比較する。
論文 参考訳(メタデータ) (2021-08-03T00:41:27Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Reach-SDP: Reachability Analysis of Closed-Loop Systems with Neural
Network Controllers via Semidefinite Programming [19.51345816555571]
本稿では,ニューラルネットワークを用いた線形時間変化システムの安全性検証のための新しいフォワードリーチビリティ解析手法を提案する。
半有限計画法を用いて、これらの近似到達可能な集合を計算できることが示される。
提案手法は,まずディープニューラルネットワークを用いて非線形モデル予測制御器を近似し,その解析ツールを用いて閉ループシステムの有限時間到達性と制約満足度を証明した。
論文 参考訳(メタデータ) (2020-04-16T18:48:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。