論文の概要: Safe Neural Control for Non-Affine Control Systems with Differentiable
Control Barrier Functions
- arxiv url: http://arxiv.org/abs/2309.04492v1
- Date: Wed, 6 Sep 2023 05:35:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-17 13:59:11.253890
- Title: Safe Neural Control for Non-Affine Control Systems with Differentiable
Control Barrier Functions
- Title(参考訳): 可変制御バリア機能を有する非アフィン制御系の安全神経制御
- Authors: Wei Xiao and Ross Allen and Daniela Rus
- Abstract要約: 本稿では,非アフィン制御系における安全クリティカル制御の問題に対処する。
制御バリア関数(CBF)を用いて,状態制約と制御制約の2次コストの最適化を2次プログラムのシーケンス(QP)にサブ最適化できることが示されている。
我々は,高次CBFをニューラル常微分方程式に基づく学習モデルに差分CBFとして組み込んで,非アフィン制御系の安全性を保証する。
- 参考スコア(独自算出の注目度): 58.19198103790931
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper addresses the problem of safety-critical control for non-affine
control systems. It has been shown that optimizing quadratic costs subject to
state and control constraints can be sub-optimally reduced to a sequence of
quadratic programs (QPs) by using Control Barrier Functions (CBFs). Our
recently proposed High Order CBFs (HOCBFs) can accommodate constraints of
arbitrary relative degree. The main challenges in this approach are that it
requires affine control dynamics and the solution of the CBF-based QP is
sub-optimal since it is solved point-wise. To address these challenges, we
incorporate higher-order CBFs into neural ordinary differential equation-based
learning models as differentiable CBFs to guarantee safety for non-affine
control systems. The differentiable CBFs are trainable in terms of their
parameters, and thus, they can address the conservativeness of CBFs such that
the system state will not stay unnecessarily far away from safe set boundaries.
Moreover, the imitation learning model is capable of learning complex and
optimal control policies that are usually intractable online. We illustrate the
effectiveness of the proposed framework on LiDAR-based autonomous driving and
compare it with existing methods.
- Abstract(参考訳): 本稿では,非アフィン制御系における安全クリティカル制御の問題に対処する。
制御バリア関数(CBF)を用いることで,状態制約と制御制約による二次コストの最適化を準最適に2次プログラム(QP)のシーケンスに還元できることが示されている。
最近提案した高次CBF(HOCBF)は、任意の相対次数の制約を満たすことができる。
このアプローチの主な課題は、アフィン制御ダイナミクスが必要であり、CBFベースのQPの解は、ポイントワイズで解かれるので、準最適である。
これらの課題に対処するために,神経常微分方程式に基づく学習モデルに高次cbfを取り入れ,非親和性制御系の安全性を保証する。
識別可能なCBFはパラメータの観点から訓練可能であるため、システム状態が安全な設定境界から不必要に離れないようにCBFの保守性に対処することができる。
さらに、模倣学習モデルは、通常オンラインで引き起こされる複雑な最適制御ポリシーを学習することができる。
本稿では,LiDARに基づく自動運転における提案手法の有効性について述べる。
関連論文リスト
- Learning Performance-Oriented Control Barrier Functions Under Complex
Safety Constraints and Limited Actuation [8.1585306387285]
制御バリア関数(CBF)は非線形制御系の安全フィルタを設計するためのフレームワークを提供する。
しかし、結果の制御不変量集合の体積を同時に最大化するCBFを見つけることは、依然として重大な課題である。
本稿では,これらのハードルに直感的に対処する,新たな自己教師型学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-11T02:51:49Z) - On the Optimality, Stability, and Feasibility of Control Barrier
Functions: An Adaptive Learning-Based Approach [4.399563188884702]
制御バリア機能(CBF)とその変種は、安全クリティカルな制御のために広く注目を集めている。
現在のCBFには、最適性、安定性、実現可能性という根本的な制限がある。
本稿では,適応多段階制御バリア関数 (AM-CBF) を提案し,ニューラルネットワークを用いてクラス$mathcalK$関数をパラメータ化し,強化学習ポリシーとともに学習する。
論文 参考訳(メタデータ) (2023-05-05T15:11:28Z) - Learning Feasibility Constraints for Control Barrier Functions [8.264868845642843]
我々は、擬似プログラム(QP)の実現性を確保するために機械学習技術を採用している。
CBFのための新しい実現可能性制約を学習するためのサンプリングベース学習手法を提案する。
本稿では,制約付き最適制御問題に対する学習手法の利点を示す。
論文 参考訳(メタデータ) (2023-03-10T16:29:20Z) - Recursively Feasible Probabilistic Safe Online Learning with Control
Barrier Functions [63.18590014127461]
本稿では,CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
本研究では,ロバストな安全クリティカルコントローラの実現可能性について検討する。
次に、これらの条件を使って、イベントトリガーによるオンラインデータ収集戦略を考案します。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Learning Differentiable Safety-Critical Control using Control Barrier
Functions for Generalization to Novel Environments [16.68313219331689]
制御バリア機能(CBF)は、制御システムの安全性を強制するための一般的なツールとなっている。
本稿では,最適化に基づく安全クリティカル制御フレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-04T20:43:37Z) - Learning Robust Output Control Barrier Functions from Safe Expert
Demonstrations [50.37808220291108]
まず,安全性を保証する手段として,ロバスト出力制御バリア関数(ROCBF)を提案する。
次に、安全なシステム動作を示す専門家による実証からROCBFを学習するための最適化問題を定式化する。
我々は,自律走行シミュレータCARLAのアルゴリズムを実証的に検証し,RGBカメラ画像から安全な制御法を学習する方法を実証する。
論文 参考訳(メタデータ) (2021-11-18T23:21:00Z) - Pointwise Feasibility of Gaussian Process-based Safety-Critical Control
under Model Uncertainty [77.18483084440182]
制御バリア関数(CBF)と制御リアプノフ関数(CLF)は、制御システムの安全性と安定性をそれぞれ強化するための一般的なツールである。
本稿では, CBF と CLF を用いた安全クリティカルコントローラにおいて, モデル不確実性に対処するためのガウスプロセス(GP)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-13T23:08:49Z) - Reinforcement Learning for Safety-Critical Control under Model
Uncertainty, using Control Lyapunov Functions and Control Barrier Functions [96.63967125746747]
強化学習フレームワークは、CBFおよびCLF制約に存在するモデル不確実性を学ぶ。
RL-CBF-CLF-QPは、安全制約におけるモデル不確実性の問題に対処する。
論文 参考訳(メタデータ) (2020-04-16T10:51:33Z) - Learning Control Barrier Functions from Expert Demonstrations [69.23675822701357]
制御障壁関数(CBF)に基づく安全な制御器合成のための学習に基づくアプローチを提案する。
最適化に基づくCBFの学習手法を解析し、基礎となる力学系のリプシッツ仮定の下で証明可能な安全保証を享受する。
私たちの知る限りでは、これらはデータから確実に安全な制御障壁関数を学習する最初の結果です。
論文 参考訳(メタデータ) (2020-04-07T12:29:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。