論文の概要: Learning Robust Output Control Barrier Functions from Safe Expert
Demonstrations
- arxiv url: http://arxiv.org/abs/2111.09971v1
- Date: Thu, 18 Nov 2021 23:21:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-22 16:34:54.782507
- Title: Learning Robust Output Control Barrier Functions from Safe Expert
Demonstrations
- Title(参考訳): 安全専門家によるロバストな出力制御障壁関数の学習
- Authors: Lars Lindemann, Alexander Robey, Lejun Jiang, Stephen Tu, and Nikolai
Matni
- Abstract要約: 本稿では,専門家による実証実験から安全な制御法を学習する。
まず,安全性を保証する手段として,ロバスト出力制御バリア関数(ROCBF)を提案する。
次に,安全なシステム動作を示す専門家による実証からROCBFを学習するための最適化問題を提案する。
- 参考スコア(独自算出の注目度): 64.46471943961966
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper addresses learning safe control laws from expert demonstrations.
We assume that appropriate models of the system dynamics and the output
measurement map are available, along with corresponding error bounds. We first
propose robust output control barrier functions (ROCBFs) as a means to
guarantee safety, as defined through controlled forward invariance of a safe
set. We then present an optimization problem to learn ROCBFs from expert
demonstrations that exhibit safe system behavior, e.g., data collected from a
human operator. Along with the optimization problem, we provide verifiable
conditions that guarantee validity of the obtained ROCBF. These conditions are
stated in terms of the density of the data and on Lipschitz and boundedness
constants of the learned function and the models of the system dynamics and the
output measurement map. When the parametrization of the ROCBF is linear, then,
under mild assumptions, the optimization problem is convex. We validate our
findings in the autonomous driving simulator CARLA and show how to learn safe
control laws from RGB camera images.
- Abstract(参考訳): 本稿では,専門家による実証実験から安全な制御法を学習する。
システムダイナミクスと出力計測マップの適切なモデルが、対応する誤差境界とともに利用可能であると仮定する。
まず,安全な集合の制御前方不変性を通じて定義された安全を保証する手段として,ロバスト出力制御障壁関数(ROCBF)を提案する。
次に,人間の操作者から収集したデータなど,安全なシステム動作を示す専門家による実証からROCBFを学習するための最適化問題を提案する。
最適化問題とともに、得られたROCBFの妥当性を保証する検証条件を提供する。
これらの条件はデータの密度、リプシッツの値、学習関数の有界性定数、システムのダイナミクスと出力測定マップのモデルによって記述される。
ROCBFのパラメトリゼーションが線型であれば、軽微な仮定の下で最適化問題は凸である。
自律走行シミュレータCARLAで得られた知見を検証し,RGBカメラ画像から安全な制御法を学習する方法を示す。
関連論文リスト
- Model-Assisted Probabilistic Safe Adaptive Control With Meta-Bayesian
Learning [33.75998206184497]
メタラーニング,ベイズモデル,制御バリア関数(CBF)メソッドを統合した新しい適応型安全制御フレームワークを開発した。
具体的には、CBF法の助けを借りて、統一適応ベイズ線形回帰モデルにより固有不確かさと外部不確かさを学習する。
新しい制御タスクのために,いくつかのサンプルを用いてメタ学習モデルを洗練し,安全制御を確保するためにCBF制約に悲観的信頼境界を導入する。
論文 参考訳(メタデータ) (2023-07-03T08:16:01Z) - Recursively Feasible Probabilistic Safe Online Learning with Control
Barrier Functions [63.18590014127461]
本稿では,CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
本研究では,ロバストな安全クリティカルコントローラの実現可能性について検討する。
次に、これらの条件を使って、イベントトリガーによるオンラインデータ収集戦略を考案します。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Pointwise Feasibility of Gaussian Process-based Safety-Critical Control
under Model Uncertainty [77.18483084440182]
制御バリア関数(CBF)と制御リアプノフ関数(CLF)は、制御システムの安全性と安定性をそれぞれ強化するための一般的なツールである。
本稿では, CBF と CLF を用いた安全クリティカルコントローラにおいて, モデル不確実性に対処するためのガウスプロセス(GP)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-13T23:08:49Z) - Probabilistic robust linear quadratic regulators with Gaussian processes [73.0364959221845]
ガウス過程(GP)のような確率モデルは、制御設計に続く使用のためのデータから未知の動的システムを学ぶための強力なツールです。
本稿では、確率的安定性マージンに関して堅牢なコントローラを生成する線形化GPダイナミクスのための新しいコントローラ合成について述べる。
論文 参考訳(メタデータ) (2021-05-17T08:36:18Z) - Gaussian Process-based Min-norm Stabilizing Controller for
Control-Affine Systems with Uncertain Input Effects and Dynamics [90.81186513537777]
本稿では,この問題の制御・アフィン特性を捉えた新しい化合物カーネルを提案する。
この結果の最適化問題は凸であることを示し、ガウス過程に基づく制御リャプノフ関数第二次コーンプログラム(GP-CLF-SOCP)と呼ぶ。
論文 参考訳(メタデータ) (2020-11-14T01:27:32Z) - Reinforcement Learning Control of Constrained Dynamic Systems with
Uniformly Ultimate Boundedness Stability Guarantee [12.368097742148128]
強化学習(RL)は複雑な非線形制御問題に対して有望である。
データベースの学習アプローチは、安定性を保証していないことで悪名高い。
本稿では,古典的なリャプノフ法を用いて,データのみに基づいて一様極大境界性安定性(UUB)を解析する。
論文 参考訳(メタデータ) (2020-11-13T12:41:56Z) - Learning Control Barrier Functions from Expert Demonstrations [69.23675822701357]
制御障壁関数(CBF)に基づく安全な制御器合成のための学習に基づくアプローチを提案する。
最適化に基づくCBFの学習手法を解析し、基礎となる力学系のリプシッツ仮定の下で証明可能な安全保証を享受する。
私たちの知る限りでは、これらはデータから確実に安全な制御障壁関数を学習する最初の結果です。
論文 参考訳(メタデータ) (2020-04-07T12:29:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。