論文の概要: Safety Certification for Stochastic Systems via Neural Barrier Functions
- arxiv url: http://arxiv.org/abs/2206.01463v1
- Date: Fri, 3 Jun 2022 09:06:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-06 15:19:06.899645
- Title: Safety Certification for Stochastic Systems via Neural Barrier Functions
- Title(参考訳): 神経バリア関数を用いた確率システムの安全性証明
- Authors: Frederik Baymler Mathiesen, Simeon Calvert, Luca Laurenti
- Abstract要約: バリア関数は、非線形システムに対する非自明な安全性証明を提供するために使用できる。
ニューラルネットワークとしてバリア関数をパラメータ化することにより、ニューラルネットワークの堅牢なトレーニングを成功させてバリア関数を見つけることができることを示す。
提案手法は,いくつかのケーススタディにおいて既存の手法よりも優れており,桁違いに大きい安全証明書を返却することが多い。
- 参考スコア(独自算出の注目度): 3.7491936479803054
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Providing non-trivial certificates of safety for non-linear stochastic
systems is an important open problem that limits the wider adoption of
autonomous systems in safety-critical applications. One promising solution to
address this problem is barrier functions. The composition of a barrier
function with a stochastic system forms a supermartingale, thus enabling the
computation of the probability that the system stays in a safe set over a
finite time horizon via martingale inequalities. However, existing approaches
to find barrier functions for stochastic systems generally rely on convex
optimization programs that restrict the search of a barrier to a small class of
functions such as low degree SoS polynomials and can be computationally
expensive. In this paper, we parameterize a barrier function as a neural
network and show that techniques for robust training of neural networks can be
successfully employed to find neural barrier functions. Specifically, we
leverage bound propagation techniques to certify that a neural network
satisfies the conditions to be a barrier function via linear programming and
then employ the resulting bounds at training time to enforce the satisfaction
of these conditions. We also present a branch-and-bound scheme that makes the
certification framework scalable. We show that our approach outperforms
existing methods in several case studies and often returns certificates of
safety that are orders of magnitude larger.
- Abstract(参考訳): 非線形確率システムに対する非自明な安全性証明書の提供は、安全クリティカルなアプリケーションにおける自律システムの普及を制限する重要なオープン問題である。
この問題を解決する有望な解決策は障壁関数である。
確率的システムを持つ障壁関数の合成はスーパーマーチンゲールを形成し、マルティンゲールの不等式を介して有限時間軸上の安全な集合にシステムが留まる確率の計算を可能にする。
しかし、確率システムの障壁関数を見つけるための既存のアプローチは、一般に、低次SoS多項式のような小さな種類の関数に対する障壁の探索を制限する凸最適化プログラムに依存しており、計算コストがかかる。
本稿では,ニューラルネットワークとしてバリア関数をパラメータ化し,ニューラルネットワークの堅牢なトレーニング技術を用いてニューラルネットワークのバリア関数を探索する手法を提案する。
具体的には,ニューラルネットワークが線形プログラミングによる障壁関数である条件を満たすことを証明し,トレーニング時に得られた境界を用いて,これらの条件の満足度を強制する。
また,認証フレームワークをスケーラブルにするためのブランチ・アンド・バウンドスキームも提示する。
提案手法は,いくつかのケーススタディにおいて既存の手法よりも優れており,桁違いに大きい安全証明書を返すことが多い。
関連論文リスト
- Learning Controlled Stochastic Differential Equations [61.82896036131116]
本研究では,非一様拡散を伴う連続多次元非線形微分方程式のドリフト係数と拡散係数の両方を推定する新しい手法を提案する。
我々は、(L2)、(Linfty)の有限サンプル境界や、係数の正則性に適応する学習率を持つリスクメトリクスを含む、強力な理論的保証を提供する。
当社のメソッドはオープンソースPythonライブラリとして利用可能です。
論文 参考訳(メタデータ) (2024-11-04T11:09:58Z) - Verification-Aided Learning of Neural Network Barrier Functions with
Termination Guarantees [6.9060054915724]
バリア関数は、システムの安全性を保証するための一般的なフレームワークである。
これらの関数を見つける一般的な方法は存在しない。
近年のアプローチでは、自己教師付き学習技術を用いてこれらの機能を学習している。
論文 参考訳(メタデータ) (2024-03-12T04:29:43Z) - Robust Stochastically-Descending Unrolled Networks [85.6993263983062]
Deep Unrolling(ディープ・アンローリング)は、トレーニング可能なニューラルネットワークの層に切り捨てられた反復アルゴリズムをアンロールする、新たな学習最適化手法である。
アンロールネットワークの収束保証と一般化性は、いまだにオープンな理論上の問題であることを示す。
提案した制約の下で訓練されたアンロールアーキテクチャを2つの異なるアプリケーションで数値的に評価する。
論文 参考訳(メタデータ) (2023-12-25T18:51:23Z) - Enforcing Hard Constraints with Soft Barriers: Safe Reinforcement
Learning in Unknown Stochastic Environments [84.3830478851369]
本研究では,環境を協調的に学習し,制御ポリシーを最適化する安全な強化学習手法を提案する。
本手法は, 安全性の制約を効果的に適用し, シミュレーションにより測定したシステム安全率においてCMDPベースのベースライン法を著しく上回っている。
論文 参考訳(メタデータ) (2022-09-29T20:49:25Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Log Barriers for Safe Black-box Optimization with Application to Safe
Reinforcement Learning [72.97229770329214]
本稿では,学習時の安全性維持が不可欠である高次元非線形最適化問題に対する一般的なアプローチを提案する。
LBSGDと呼ばれるアプローチは、慎重に選択されたステップサイズで対数障壁近似を適用することに基づいている。
安全強化学習における政策課題の違反を最小限に抑えるためのアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-07-21T11:14:47Z) - Stability Verification in Stochastic Control Systems via Neural Network
Supermartingales [17.558766911646263]
2つの新しい側面を持つ一般非線形制御問題に対するアプローチを提案する。
我々は、A.s.asymptotic stabilityの証明にランキング・スーパーガレス(RSM)を使用し、ニューラルネットワークの学習方法を提案する。
論文 参考訳(メタデータ) (2021-12-17T13:05:14Z) - Constrained Feedforward Neural Network Training via Reachability
Analysis [0.0]
安全上の制約に従うためにニューラルネットワークをトレーニングすることは、依然としてオープンな課題である。
本研究は, 整列線形単位(ReLU)非線形性を持つフィードフォワードニューラルネットワークを同時に訓練し, 検証する制約付き手法を提案する。
論文 参考訳(メタデータ) (2021-07-16T04:03:01Z) - Reach-SDP: Reachability Analysis of Closed-Loop Systems with Neural
Network Controllers via Semidefinite Programming [19.51345816555571]
本稿では,ニューラルネットワークを用いた線形時間変化システムの安全性検証のための新しいフォワードリーチビリティ解析手法を提案する。
半有限計画法を用いて、これらの近似到達可能な集合を計算できることが示される。
提案手法は,まずディープニューラルネットワークを用いて非線形モデル予測制御器を近似し,その解析ツールを用いて閉ループシステムの有限時間到達性と制約満足度を証明した。
論文 参考訳(メタデータ) (2020-04-16T18:48:25Z) - Learning Control Barrier Functions from Expert Demonstrations [69.23675822701357]
制御障壁関数(CBF)に基づく安全な制御器合成のための学習に基づくアプローチを提案する。
最適化に基づくCBFの学習手法を解析し、基礎となる力学系のリプシッツ仮定の下で証明可能な安全保証を享受する。
私たちの知る限りでは、これらはデータから確実に安全な制御障壁関数を学習する最初の結果です。
論文 参考訳(メタデータ) (2020-04-07T12:29:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。