論文の概要: Exact Verification of ReLU Neural Control Barrier Functions
- arxiv url: http://arxiv.org/abs/2310.09360v1
- Date: Fri, 13 Oct 2023 18:59:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 22:25:18.210416
- Title: Exact Verification of ReLU Neural Control Barrier Functions
- Title(参考訳): ReLUニューラルコントロールバリア関数の厳密な検証
- Authors: Hongchao Zhang, Junlin Wu, Yevgeniy Vorobeychik, Andrew Clark
- Abstract要約: 制御バリア関数(CBF)は非線形システムの安全な制御のための一般的なアプローチである。
CBFをニューラルネットワークとして表現する最近の機械学習手法は、非常に有望である。
本稿では,ReLU アクティベーション機能付きフィードフォワード NCBF の安全性を検証するための,新しい正確な条件とアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 25.44521208451216
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Control Barrier Functions (CBFs) are a popular approach for safe control of
nonlinear systems. In CBF-based control, the desired safety properties of the
system are mapped to nonnegativity of a CBF, and the control input is chosen to
ensure that the CBF remains nonnegative for all time. Recently, machine
learning methods that represent CBFs as neural networks (neural control barrier
functions, or NCBFs) have shown great promise due to the universal
representability of neural networks. However, verifying that a learned CBF
guarantees safety remains a challenging research problem. This paper presents
novel exact conditions and algorithms for verifying safety of feedforward NCBFs
with ReLU activation functions. The key challenge in doing so is that, due to
the piecewise linearity of the ReLU function, the NCBF will be
nondifferentiable at certain points, thus invalidating traditional safety
verification methods that assume a smooth barrier function. We resolve this
issue by leveraging a generalization of Nagumo's theorem for proving invariance
of sets with nonsmooth boundaries to derive necessary and sufficient conditions
for safety. Based on this condition, we propose an algorithm for safety
verification of NCBFs that first decomposes the NCBF into piecewise linear
segments and then solves a nonlinear program to verify safety of each segment
as well as the intersections of the linear segments. We mitigate the complexity
by only considering the boundary of the safe region and by pruning the segments
with Interval Bound Propagation (IBP) and linear relaxation. We evaluate our
approach through numerical studies with comparison to state-of-the-art
SMT-based methods. Our code is available at
https://github.com/HongchaoZhang-HZ/exactverif-reluncbf-nips23.
- Abstract(参考訳): 制御バリア関数(CBF)は非線形システムの安全な制御のための一般的なアプローチである。
CBFベースの制御では、システムの所望の安全性特性をCBFの非負性にマッピングし、CBFが常に負であることを保証するために制御入力を選択する。
近年, CBFをニューラルネットワーク(神経制御バリア関数, NCBF)として表現する機械学習手法は, ニューラルネットワークの普遍的表現性から, 大いに期待されている。
しかしながら、学習したCBFが安全性を保証することを検証することは、依然として困難な研究課題である。
本稿では,ReLU アクティベーション機能付きフィードフォワード NCBF の安全性を検証するための,新しい正確な条件とアルゴリズムを提案する。
これを行う上での鍵となる課題は、ReLU関数の断片的線型性のため、NCBFは特定の点で微分不可能となり、滑らかなバリア関数を仮定する従来の安全検証方法を無効にすることである。
我々は,非滑らかな境界を持つ集合の不変性を証明するために,ナグモの定理の一般化を利用して,安全に必要な十分条件を導出する。
この条件に基づいて,まずNCBFを一括線形セグメントに分解し,各セグメントの安全性と線形セグメントの交点を検証するための非線形プログラムを解くNCBFの安全性検証アルゴリズムを提案する。
安全な領域の境界を考慮し、区間境界伝播(ibp)と線形緩和でセグメントを刈り取ることにより、複雑さを緩和する。
我々は,最新のSMT法と比較し,数値解析によるアプローチの評価を行った。
私たちのコードはhttps://github.com/hongchaozhang-hz/exactverif-reluncbf-nips23で利用可能です。
関連論文リスト
- Pareto Control Barrier Function for Inner Safe Set Maximization Under Input Constraints [50.920465513162334]
入力制約下での動的システムの内部安全集合を最大化するPCBFアルゴリズムを提案する。
逆振り子に対するハミルトン・ヤコビの到達性との比較と,12次元四元数系のシミュレーションにより,その有効性を検証する。
その結果,PCBFは既存の手法を一貫して上回り,入力制約下での安全性を確保した。
論文 参考訳(メタデータ) (2024-10-05T18:45:19Z) - Verification of Neural Control Barrier Functions with Symbolic Derivative Bounds Propagation [6.987300771372427]
本稿では,ReLUに基づくニューラルCBFの有効検証フレームワークを提案する。
シンボル境界は、ニューラルCBFヤコビアンおよび非線形系力学の内積によって伝播可能であることを示す。
論文 参考訳(メタデータ) (2024-10-04T21:42:25Z) - Safe Neural Control for Non-Affine Control Systems with Differentiable
Control Barrier Functions [58.19198103790931]
本稿では,非アフィン制御系における安全クリティカル制御の問題に対処する。
制御バリア関数(CBF)を用いて,状態制約と制御制約の2次コストの最適化を2次プログラムのシーケンス(QP)にサブ最適化できることが示されている。
我々は,高次CBFをニューラル常微分方程式に基づく学習モデルに差分CBFとして組み込んで,非アフィン制御系の安全性を保証する。
論文 参考訳(メタデータ) (2023-09-06T05:35:48Z) - Safe Control Under Input Limits with Neural Control Barrier Functions [3.5270468102327004]
入力飽和を回避する制御バリア関数(CBF)をベースとした安全制御系を新たに構築する手法を提案する。
ニューラルネットワークやディープラーニングといった機械学習のテクニックを活用して、非線形制御設計におけるこの難しい問題を単純化します。
本研究では,10D状態,4D入力クアッドコプター-ペンデュラムシステムに対する実験結果について述べる。
論文 参考訳(メタデータ) (2022-11-20T19:01:37Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Gaussian Control Barrier Functions : A Non-Parametric Paradigm to Safety [7.921648699199647]
ガウス過程(GP)を用いたCBFのオンライン合成のための非パラメトリック手法を提案する。
GPは解析的トラクタビリティやロバストな不確実性推定などの非パラメトリック性に加えて、好ましい性質を持つ。
固定的かつ任意の安全な集合に対する安全な制御を実証することにより、クワッド上で実験により検証する。
論文 参考訳(メタデータ) (2022-03-29T12:21:28Z) - Learning Robust Output Control Barrier Functions from Safe Expert Demonstrations [50.37808220291108]
本稿では,専門家によるデモンストレーションの部分的な観察から,安全な出力フィードバック制御法を考察する。
まず,安全性を保証する手段として,ロバスト出力制御バリア関数(ROCBF)を提案する。
次に、安全なシステム動作を示す専門家による実証からROCBFを学習するための最適化問題を定式化する。
論文 参考訳(メタデータ) (2021-11-18T23:21:00Z) - Pointwise Feasibility of Gaussian Process-based Safety-Critical Control
under Model Uncertainty [77.18483084440182]
制御バリア関数(CBF)と制御リアプノフ関数(CLF)は、制御システムの安全性と安定性をそれぞれ強化するための一般的なツールである。
本稿では, CBF と CLF を用いた安全クリティカルコントローラにおいて, モデル不確実性に対処するためのガウスプロセス(GP)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-13T23:08:49Z) - Learning Control Barrier Functions from Expert Demonstrations [69.23675822701357]
制御障壁関数(CBF)に基づく安全な制御器合成のための学習に基づくアプローチを提案する。
最適化に基づくCBFの学習手法を解析し、基礎となる力学系のリプシッツ仮定の下で証明可能な安全保証を享受する。
私たちの知る限りでは、これらはデータから確実に安全な制御障壁関数を学習する最初の結果です。
論文 参考訳(メタデータ) (2020-04-07T12:29:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。