論文の概要: Safe Reach Set Computation via Neural Barrier Certificates
- arxiv url: http://arxiv.org/abs/2404.18813v1
- Date: Mon, 29 Apr 2024 15:49:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-30 13:08:44.485708
- Title: Safe Reach Set Computation via Neural Barrier Certificates
- Title(参考訳): ニューラルバリア認証による安全なリーチセット計算
- Authors: Alessandro Abate, Sergiy Bogomolov, Alec Edwards, Kostiantyn Potomkin, Sadegh Soudjani, Paolo Zuliani,
- Abstract要約: 本稿では,自律システムのオンライン安全性検証のための新しい手法を提案する。
我々のアプローチでは、パラメータ化されたニューラルネットワークが与えられた初期セット、安全でないセット、時間的地平線に依存する障壁証明書を使用する。
このようなネットワークは、状態空間の領域からサンプリングされたシステムシミュレーションを用いて、効率的にオフラインで訓練される。
- 参考スコア(独自算出の注目度): 46.1784503246807
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a novel technique for online safety verification of autonomous systems, which performs reachability analysis efficiently for both bounded and unbounded horizons by employing neural barrier certificates. Our approach uses barrier certificates given by parameterized neural networks that depend on a given initial set, unsafe sets, and time horizon. Such networks are trained efficiently offline using system simulations sampled from regions of the state space. We then employ a meta-neural network to generalize the barrier certificates to state space regions that are outside the training set. These certificates are generated and validated online as sound over-approximations of the reachable states, thus either ensuring system safety or activating appropriate alternative actions in unsafe scenarios. We demonstrate our technique on case studies from linear models to nonlinear control-dependent models for online autonomous driving scenarios.
- Abstract(参考訳): 本稿では,自律システムのオンライン安全性検証のための新しい手法を提案する。これは,ニューラルネットワークバリア証明書を用いることで,有界地平線と非有界地平線の両方に対して,効率よく到達可能性解析を行う。
我々のアプローチでは、パラメータ化されたニューラルネットワークが与えられた初期セット、安全でないセット、時間的地平線に依存する障壁証明書を使用する。
このようなネットワークは、状態空間の領域からサンプリングされたシステムシミュレーションを用いて、効率的にオフラインで訓練される。
次に、トレーニングセット外にある状態空間領域にバリア証明書を一般化するために、メタニューラルネットワークを用いる。
これらの証明書は、到達可能な状態の健全な過度な近似としてオンラインで生成され、検証されるため、システムの安全性を保証するか、安全でないシナリオで適切な代替アクションを実行するかのいずれかである。
本稿では,オンライン自律運転シナリオにおける線形モデルから非線形制御依存モデルへのケーススタディについて紹介する。
関連論文リスト
- Building Hybrid B-Spline And Neural Network Operators [0.0]
制御システムはサイバー物理システム(CPS)の安全性を確保するために不可欠である
本稿では,B-スプラインの帰納バイアスとデータ駆動型ニューラルネットワークを組み合わせることで,CPS行動のリアルタイム予測を容易にする手法を提案する。
論文 参考訳(メタデータ) (2024-06-06T21:54:59Z) - Safe Multi-agent Learning via Trapping Regions [89.24858306636816]
我々は、動的システムの定性理論から知られているトラップ領域の概念を適用し、分散学習のための共同戦略空間に安全セットを作成する。
本稿では,既知の学習力学を持つシステムにおいて,候補がトラップ領域を形成することを検証するための二分分割アルゴリズムと,学習力学が未知のシナリオに対するサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-27T14:47:52Z) - In-Distribution Barrier Functions: Self-Supervised Policy Filters that
Avoid Out-of-Distribution States [84.24300005271185]
本稿では,任意の参照ポリシーをラップした制御フィルタを提案する。
本手法は、トップダウンとエゴセントリックの両方のビュー設定を含むシミュレーション環境における2つの異なるビズモータ制御タスクに有効である。
論文 参考訳(メタデータ) (2023-01-27T22:28:19Z) - Interpretable Self-Aware Neural Networks for Robust Trajectory
Prediction [50.79827516897913]
本稿では,意味概念間で不確実性を分散する軌道予測のための解釈可能なパラダイムを提案する。
実世界の自動運転データに対する我々のアプローチを検証し、最先端のベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-16T06:28:20Z) - Backward Reachability Analysis of Neural Feedback Loops: Techniques for
Linear and Nonlinear Systems [59.57462129637796]
本稿では,ニューラルネットワークを用いた閉ループシステムの安全性検証のための後方到達性アプローチを提案する。
フィードバックループにおけるNNの存在は、その活性化関数の非線形性や、NNモデルは一般に可逆的ではないため、ユニークな問題セットを示す。
フィードフォワードNNで表される制御ポリシを持つ線形系と非線形系のBP過近似を計算するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-28T13:17:28Z) - Safety Certification for Stochastic Systems via Neural Barrier Functions [3.7491936479803054]
バリア関数は、非線形システムに対する非自明な安全性証明を提供するために使用できる。
ニューラルネットワークとしてバリア関数をパラメータ化することにより、ニューラルネットワークの堅牢なトレーニングを成功させてバリア関数を見つけることができることを示す。
提案手法は,いくつかのケーススタディにおいて既存の手法よりも優れており,桁違いに大きい安全証明書を返却することが多い。
論文 参考訳(メタデータ) (2022-06-03T09:06:02Z) - Learning Barrier Certificates: Towards Safe Reinforcement Learning with
Zero Training-time Violations [64.39401322671803]
本稿では、トレーニング時安全違反をゼロとした安全RLアルゴリズムの可能性について検討する。
本稿では、バリア証明書、動的モデル、ポリシーを反復的に学習する、CRABS(Co-trained Barrier Certificate for Safe RL)を提案する。
論文 参考訳(メタデータ) (2021-08-04T04:59:05Z) - OVERT: An Algorithm for Safety Verification of Neural Network Control
Policies for Nonlinear Systems [31.3812947670948]
本稿では,ニューラルネットワーク制御ポリシーの安全性検証のための音響アルゴリズムOVERTを提案する。
OVERT の中心的な概念は、最適にきつく片方向の線形境界を持つ非線形関数を抽象化することである。
オーバートは、到達可能な集合の時間的および厳密性の両方において、既存の方法と好意的に比較する。
論文 参考訳(メタデータ) (2021-08-03T00:41:27Z) - Constrained Feedforward Neural Network Training via Reachability
Analysis [0.0]
安全上の制約に従うためにニューラルネットワークをトレーニングすることは、依然としてオープンな課題である。
本研究は, 整列線形単位(ReLU)非線形性を持つフィードフォワードニューラルネットワークを同時に訓練し, 検証する制約付き手法を提案する。
論文 参考訳(メタデータ) (2021-07-16T04:03:01Z) - Deep Reinforcement Learning with Linear Quadratic Regulator Regions [26.555266610250797]
シミュレーションで訓練されたポリシーの出力に対して,アトラクションの安定領域を保証する新しい手法を提案する。
実システムに振り上げ反転振子のシミュレーションポリシを転送し,本手法の有効性を実証し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-02-23T03:50:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。