論文の概要: CP-NCBF: A Conformal Prediction-based Approach to Synthesize Verified Neural Control Barrier Functions
- arxiv url: http://arxiv.org/abs/2503.17395v1
- Date: Tue, 18 Mar 2025 10:01:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-25 14:33:48.496680
- Title: CP-NCBF: A Conformal Prediction-based Approach to Synthesize Verified Neural Control Barrier Functions
- Title(参考訳): CP-NCBF: Conformal Prediction-based Approach to Synthesize Verified Neural Control Barrier Function
- Authors: Manan Tayal, Aditya Singh, Pushpak Jagtap, Shishir Kolathaya,
- Abstract要約: 制御バリア関数(CBF)は、安全クリティカルなコントローラを設計するための実践的なアプローチである。
近年,ニューラルCBFのような学習ベースの手法でこの問題に対処する研究が進められている。
本稿では, 分割整形予測を利用して, 正式に検証されたニューラルCBFを生成する新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 2.092779643426281
- License:
- Abstract: Control Barrier Functions (CBFs) are a practical approach for designing safety-critical controllers, but constructing them for arbitrary nonlinear dynamical systems remains a challenge. Recent efforts have explored learning-based methods, such as neural CBFs (NCBFs), to address this issue. However, ensuring the validity of NCBFs is difficult due to potential learning errors. In this letter, we propose a novel framework that leverages split-conformal prediction to generate formally verified neural CBFs with probabilistic guarantees based on a user-defined error rate, referred to as CP-NCBF. Unlike existing methods that impose Lipschitz constraints on neural CBF-leading to scalability limitations and overly conservative safe sets--our approach is sample-efficient, scalable, and results in less restrictive safety regions. We validate our framework through case studies on obstacle avoidance in autonomous driving and geo-fencing of aerial vehicles, demonstrating its ability to generate larger and less conservative safe sets compared to conventional techniques.
- Abstract(参考訳): 制御バリア関数(CBF)は、安全クリティカルなコントローラを設計するための実用的アプローチであるが、任意の非線形力学系のために設計することは依然として課題である。
近年,ニューラルCBF (NCBFs) などの学習ベースの手法を探求し,この問題に対処している。
しかし,NCBFsの有効性の確保は学習ミスの可能性があるため困難である。
本稿では, CP-NCBF と呼ばれるユーザ定義誤り率に基づく確率的保証付きニューラルネットワーク CBF を生成するために, スプリットコンフォーマル予測を利用した新しいフレームワークを提案する。
リプシッツがニューラルCBFに制約を課している既存の手法とは違って、スケーラビリティの制限と過度に保守的な安全なセット – アプローチはサンプリング効率が高く、拡張性があり、結果として制限の少ない安全領域になる。
我々は,自律走行における障害物回避と航空車両のジオフェンシングのケーススタディを通じて,従来の手法に比べて大規模で保守的でない安全セットを生成する能力を示す。
関連論文リスト
- Exact Verification of ReLU Neural Control Barrier Functions [25.44521208451216]
制御バリア関数(CBF)は非線形システムの安全な制御のための一般的なアプローチである。
CBFをニューラルネットワークとして表現する最近の機械学習手法は、非常に有望である。
本稿では,ReLU アクティベーション機能付きフィードフォワード NCBF の安全性を検証するための,新しい正確な条件とアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-13T18:59:04Z) - Safe Neural Control for Non-Affine Control Systems with Differentiable
Control Barrier Functions [58.19198103790931]
本稿では,非アフィン制御系における安全クリティカル制御の問題に対処する。
制御バリア関数(CBF)を用いて,状態制約と制御制約の2次コストの最適化を2次プログラムのシーケンス(QP)にサブ最適化できることが示されている。
我々は,高次CBFをニューラル常微分方程式に基づく学習モデルに差分CBFとして組み込んで,非アフィン制御系の安全性を保証する。
論文 参考訳(メタデータ) (2023-09-06T05:35:48Z) - Model-Assisted Probabilistic Safe Adaptive Control With Meta-Bayesian
Learning [33.75998206184497]
メタラーニング,ベイズモデル,制御バリア関数(CBF)メソッドを統合した新しい適応型安全制御フレームワークを開発した。
具体的には、CBF法の助けを借りて、統一適応ベイズ線形回帰モデルにより固有不確かさと外部不確かさを学習する。
新しい制御タスクのために,いくつかのサンプルを用いてメタ学習モデルを洗練し,安全制御を確保するためにCBF制約に悲観的信頼境界を導入する。
論文 参考訳(メタデータ) (2023-07-03T08:16:01Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Learning Robust Output Control Barrier Functions from Safe Expert Demonstrations [50.37808220291108]
本稿では,専門家によるデモンストレーションの部分的な観察から,安全な出力フィードバック制御法を考察する。
まず,安全性を保証する手段として,ロバスト出力制御バリア関数(ROCBF)を提案する。
次に、安全なシステム動作を示す専門家による実証からROCBFを学習するための最適化問題を定式化する。
論文 参考訳(メタデータ) (2021-11-18T23:21:00Z) - Pointwise Feasibility of Gaussian Process-based Safety-Critical Control
under Model Uncertainty [77.18483084440182]
制御バリア関数(CBF)と制御リアプノフ関数(CLF)は、制御システムの安全性と安定性をそれぞれ強化するための一般的なツールである。
本稿では, CBF と CLF を用いた安全クリティカルコントローラにおいて, モデル不確実性に対処するためのガウスプロセス(GP)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-13T23:08:49Z) - Safe Exploration in Model-based Reinforcement Learning using Control
Barrier Functions [1.005130974691351]
我々は、最小侵襲の安全管理ポリシーを開発するためにCBFの有益な特性を保持する新しいCBFのクラスを開発する。
我々は,これらのlcbfを学習ベースの制御ポリシーの強化に活用し,安全性を保証し,このアプローチを利用して安全な探索フレームワークを開発する方法を示す。
論文 参考訳(メタデータ) (2021-04-16T15:29:58Z) - Reinforcement Learning for Safety-Critical Control under Model
Uncertainty, using Control Lyapunov Functions and Control Barrier Functions [96.63967125746747]
強化学習フレームワークは、CBFおよびCLF制約に存在するモデル不確実性を学ぶ。
RL-CBF-CLF-QPは、安全制約におけるモデル不確実性の問題に対処する。
論文 参考訳(メタデータ) (2020-04-16T10:51:33Z) - Learning Control Barrier Functions from Expert Demonstrations [69.23675822701357]
制御障壁関数(CBF)に基づく安全な制御器合成のための学習に基づくアプローチを提案する。
最適化に基づくCBFの学習手法を解析し、基礎となる力学系のリプシッツ仮定の下で証明可能な安全保証を享受する。
私たちの知る限りでは、これらはデータから確実に安全な制御障壁関数を学習する最初の結果です。
論文 参考訳(メタデータ) (2020-04-07T12:29:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。