論文の概要: Learning Robust Output Control Barrier Functions from Safe Expert
Demonstrations
- arxiv url: http://arxiv.org/abs/2111.09971v1
- Date: Thu, 18 Nov 2021 23:21:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-22 16:34:54.782507
- Title: Learning Robust Output Control Barrier Functions from Safe Expert
Demonstrations
- Title(参考訳): 安全専門家によるロバストな出力制御障壁関数の学習
- Authors: Lars Lindemann, Alexander Robey, Lejun Jiang, Stephen Tu, and Nikolai
Matni
- Abstract要約: 本稿では,専門家による実証実験から安全な制御法を学習する。
まず,安全性を保証する手段として,ロバスト出力制御バリア関数(ROCBF)を提案する。
次に,安全なシステム動作を示す専門家による実証からROCBFを学習するための最適化問題を提案する。
- 参考スコア(独自算出の注目度): 64.46471943961966
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper addresses learning safe control laws from expert demonstrations.
We assume that appropriate models of the system dynamics and the output
measurement map are available, along with corresponding error bounds. We first
propose robust output control barrier functions (ROCBFs) as a means to
guarantee safety, as defined through controlled forward invariance of a safe
set. We then present an optimization problem to learn ROCBFs from expert
demonstrations that exhibit safe system behavior, e.g., data collected from a
human operator. Along with the optimization problem, we provide verifiable
conditions that guarantee validity of the obtained ROCBF. These conditions are
stated in terms of the density of the data and on Lipschitz and boundedness
constants of the learned function and the models of the system dynamics and the
output measurement map. When the parametrization of the ROCBF is linear, then,
under mild assumptions, the optimization problem is convex. We validate our
findings in the autonomous driving simulator CARLA and show how to learn safe
control laws from RGB camera images.
- Abstract(参考訳): 本稿では,専門家による実証実験から安全な制御法を学習する。
システムダイナミクスと出力計測マップの適切なモデルが、対応する誤差境界とともに利用可能であると仮定する。
まず,安全な集合の制御前方不変性を通じて定義された安全を保証する手段として,ロバスト出力制御障壁関数(ROCBF)を提案する。
次に,人間の操作者から収集したデータなど,安全なシステム動作を示す専門家による実証からROCBFを学習するための最適化問題を提案する。
最適化問題とともに、得られたROCBFの妥当性を保証する検証条件を提供する。
これらの条件はデータの密度、リプシッツの値、学習関数の有界性定数、システムのダイナミクスと出力測定マップのモデルによって記述される。
ROCBFのパラメトリゼーションが線型であれば、軽微な仮定の下で最適化問題は凸である。
自律走行シミュレータCARLAで得られた知見を検証し,RGBカメラ画像から安全な制御法を学習する方法を示す。
関連論文リスト
- Automatically Adaptive Conformal Risk Control [49.95190019041905]
本稿では,テストサンプルの難易度に適応して,統計的リスクの近似的条件制御を実現する手法を提案する。
我々のフレームワークは、ユーザが提供するコンディショニングイベントに基づく従来のコンディショニングリスク制御を超えて、コンディショニングに適した関数クラスのアルゴリズム的、データ駆動決定を行う。
論文 参考訳(メタデータ) (2024-06-25T08:29:32Z) - Stable Inverse Reinforcement Learning: Policies from Control Lyapunov Landscapes [4.229902091180109]
実験データからリアプノフ関数を学習するための新しい安定度認証IRL手法を提案する。
関連する制御ポリシーのクローズドフォーム表現を利用することで、CLFの空間を効率的に探索することができる。
我々は,CLFが提供する最適性に関する理論的解析を行い,シミュレーションデータと実世界データの両方を用いて我々のアプローチを評価する。
論文 参考訳(メタデータ) (2024-05-14T16:40:45Z) - Model-Assisted Probabilistic Safe Adaptive Control With Meta-Bayesian
Learning [33.75998206184497]
メタラーニング,ベイズモデル,制御バリア関数(CBF)メソッドを統合した新しい適応型安全制御フレームワークを開発した。
具体的には、CBF法の助けを借りて、統一適応ベイズ線形回帰モデルにより固有不確かさと外部不確かさを学習する。
新しい制御タスクのために,いくつかのサンプルを用いてメタ学習モデルを洗練し,安全制御を確保するためにCBF制約に悲観的信頼境界を導入する。
論文 参考訳(メタデータ) (2023-07-03T08:16:01Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Pointwise Feasibility of Gaussian Process-based Safety-Critical Control
under Model Uncertainty [77.18483084440182]
制御バリア関数(CBF)と制御リアプノフ関数(CLF)は、制御システムの安全性と安定性をそれぞれ強化するための一般的なツールである。
本稿では, CBF と CLF を用いた安全クリティカルコントローラにおいて, モデル不確実性に対処するためのガウスプロセス(GP)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-13T23:08:49Z) - Gaussian Process-based Min-norm Stabilizing Controller for
Control-Affine Systems with Uncertain Input Effects and Dynamics [90.81186513537777]
本稿では,この問題の制御・アフィン特性を捉えた新しい化合物カーネルを提案する。
この結果の最適化問題は凸であることを示し、ガウス過程に基づく制御リャプノフ関数第二次コーンプログラム(GP-CLF-SOCP)と呼ぶ。
論文 参考訳(メタデータ) (2020-11-14T01:27:32Z) - Reinforcement Learning Control of Constrained Dynamic Systems with
Uniformly Ultimate Boundedness Stability Guarantee [12.368097742148128]
強化学習(RL)は複雑な非線形制御問題に対して有望である。
データベースの学習アプローチは、安定性を保証していないことで悪名高い。
本稿では,古典的なリャプノフ法を用いて,データのみに基づいて一様極大境界性安定性(UUB)を解析する。
論文 参考訳(メタデータ) (2020-11-13T12:41:56Z) - Learning Control Barrier Functions from Expert Demonstrations [69.23675822701357]
制御障壁関数(CBF)に基づく安全な制御器合成のための学習に基づくアプローチを提案する。
最適化に基づくCBFの学習手法を解析し、基礎となる力学系のリプシッツ仮定の下で証明可能な安全保証を享受する。
私たちの知る限りでは、これらはデータから確実に安全な制御障壁関数を学習する最初の結果です。
論文 参考訳(メタデータ) (2020-04-07T12:29:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。