論文の概要: DRIP: Domain Refinement Iteration with Polytopes for Backward
Reachability Analysis of Neural Feedback Loops
- arxiv url: http://arxiv.org/abs/2212.04646v1
- Date: Fri, 9 Dec 2022 03:06:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 16:25:26.900939
- Title: DRIP: Domain Refinement Iteration with Polytopes for Backward
Reachability Analysis of Neural Feedback Loops
- Title(参考訳): DRIP:ニューラルフィードバックループの後方到達性解析のためのポリトープを用いたドメインリファインメントイテレーション
- Authors: Michael Everett, Rudy Bunel, Shayegan Omidshafiei
- Abstract要約: 本研究では,ニューラルネットワーク(NN)ポリシによって制御されるシステムに対して,衝突回避保証を提供するフレームワークとしての後方到達性について検討する。
NNは典型的には可逆ではないため、既存の手法ではNNを緩和する領域を前提としており、状態の集合を緩やかに過度に近似させる。
本稿では、緩和領域に洗練されたループを持つアルゴリズムDRIPを導入し、BP集合の境界をかなり厳しくする。
- 参考スコア(独自算出の注目度): 12.706980346861986
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Safety certification of data-driven control techniques remains a major open
problem. This work investigates backward reachability as a framework for
providing collision avoidance guarantees for systems controlled by neural
network (NN) policies. Because NNs are typically not invertible, existing
methods conservatively assume a domain over which to relax the NN, which causes
loose over-approximations of the set of states that could lead the system into
the obstacle (i.e., backprojection (BP) sets). To address this issue, we
introduce DRIP, an algorithm with a refinement loop on the relaxation domain,
which substantially tightens the BP set bounds. Furthermore, we introduce a
formulation that enables directly obtaining closed-form representations of
polytopes to bound the BP sets tighter than prior work, which required solving
linear programs and using hyper-rectangles. Furthermore, this work extends the
NN relaxation algorithm to handle polytope domains, which further tightens the
bounds on BP sets. DRIP is demonstrated in numerical experiments on control
systems, including a ground robot controlled by a learned NN obstacle avoidance
policy.
- Abstract(参考訳): データ駆動制御技術の安全性保証は依然として大きな問題である。
本研究では,ニューラルネットワーク(NN)ポリシによって制御されるシステムに対して,衝突回避保証を提供するフレームワークとしての後方到達性を検討する。
nnは一般に可逆的ではないため、既存の手法ではnnを緩和するための領域を保守的に仮定しており、それによってシステムの障害(すなわちバックプロジェクション(bp)集合)へと導く一連の状態のゆるい近似が引き起こされる。
この問題に対処するために,緩和領域上の洗練されたループを持つアルゴリズムであるDRIPを導入する。
さらに,ポリトープの閉形式表現を直接取得してBP集合を従来よりも厳密にバインドできるようにする定式化を導入し,線形プログラムの解法と超矩形を用いた。
さらに、この研究はポリトープドメインを扱うためにNN緩和アルゴリズムを拡張し、BP集合上の境界をさらに厳しくする。
DRIPは、学習NN障害物回避ポリシーによって制御される地上ロボットを含む制御システムの数値実験で実証される。
関連論文リスト
- Probabilistic Reach-Avoid for Bayesian Neural Networks [71.67052234622781]
最適合成アルゴリズムは、証明された状態の数を4倍以上に増やすことができることを示す。
このアルゴリズムは、平均的な到達回避確率を3倍以上に向上させることができる。
論文 参考訳(メタデータ) (2023-10-03T10:52:21Z) - Safe Neural Control for Non-Affine Control Systems with Differentiable
Control Barrier Functions [58.19198103790931]
本稿では,非アフィン制御系における安全クリティカル制御の問題に対処する。
制御バリア関数(CBF)を用いて,状態制約と制御制約の2次コストの最適化を2次プログラムのシーケンス(QP)にサブ最適化できることが示されている。
我々は,高次CBFをニューラル常微分方程式に基づく学習モデルに差分CBFとして組み込んで,非アフィン制御系の安全性を保証する。
論文 参考訳(メタデータ) (2023-09-06T05:35:48Z) - Backward Reachability Analysis of Neural Feedback Loops: Techniques for
Linear and Nonlinear Systems [59.57462129637796]
本稿では,ニューラルネットワークを用いた閉ループシステムの安全性検証のための後方到達性アプローチを提案する。
フィードバックループにおけるNNの存在は、その活性化関数の非線形性や、NNモデルは一般に可逆的ではないため、ユニークな問題セットを示す。
フィードフォワードNNで表される制御ポリシを持つ線形系と非線形系のBP過近似を計算するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-28T13:17:28Z) - Backward Reachability Analysis for Neural Feedback Loops [40.989393438716476]
本稿では,ニューラルネットワークを用いた閉ループシステムの安全性検証のための後方到達性アプローチを提案する。
フィードバックループにおけるNNの存在は、その活性化関数の非線形性や、NNモデルは一般に可逆的ではないため、ユニークな問題セットを示す。
本稿では,BP設定した推定値を所定の時間軸上で反復的に求めるアルゴリズムを提案し,計算コストを低くすることで,保守性を最大88%削減できることを示す。
論文 参考訳(メタデータ) (2022-04-14T01:13:14Z) - Distributed neural network control with dependability guarantees: a
compositional port-Hamiltonian approach [0.0]
大規模なサイバー物理システムは、制御ポリシーが分散されていること、すなわち、ローカルなリアルタイム測定と近隣エージェントとの通信にのみ依存することを要求する。
最近の研究でニューラルネットワーク(NN)分散コントローラのトレーニングが提案されている。
NNコントローラの主な課題は、トレーニング中と後、すなわちクローズドループシステムは不安定であり、勾配の消失と爆発によってトレーニングが失敗する可能性があることである。
論文 参考訳(メタデータ) (2021-12-16T17:37:11Z) - OVERT: An Algorithm for Safety Verification of Neural Network Control
Policies for Nonlinear Systems [31.3812947670948]
本稿では,ニューラルネットワーク制御ポリシーの安全性検証のための音響アルゴリズムOVERTを提案する。
OVERT の中心的な概念は、最適にきつく片方向の線形境界を持つ非線形関数を抽象化することである。
オーバートは、到達可能な集合の時間的および厳密性の両方において、既存の方法と好意的に比較する。
論文 参考訳(メタデータ) (2021-08-03T00:41:27Z) - Shortest-Path Constrained Reinforcement Learning for Sparse Reward Tasks [59.419152768018506]
最適ポリシーは必ずk-SP制約を満たすことを示す。
本研究では,SP制約に違反するポリシーを完全に排除する代わりに,新たなコスト関数を提案する。
また,MiniGrid,DeepMind Lab,Atari,Fetchを用いた実験の結果,提案手法はPPOを著しく改善することが示された。
論文 参考訳(メタデータ) (2021-07-13T21:39:21Z) - Certification of Iterative Predictions in Bayesian Neural Networks [79.15007746660211]
我々は、BNNモデルの軌道が与えられた状態に到達する確率に対して、安全でない状態の集合を避けながら低い境界を計算する。
我々は、制御と強化学習の文脈において、下限を用いて、与えられた制御ポリシーの安全性保証を提供する。
論文 参考訳(メタデータ) (2021-05-21T05:23:57Z) - Chance-Constrained Control with Lexicographic Deep Reinforcement
Learning [77.34726150561087]
本稿では,レキシックなDeep Reinforcement Learning(DeepRL)に基づく確率制約マルコフ決定プロセスを提案する。
有名なDeepRLアルゴリズムDQNの辞書版も提案され、シミュレーションによって検証されている。
論文 参考訳(メタデータ) (2020-10-19T13:09:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。