論文の概要: Learning Robust Output Control Barrier Functions from Safe Expert
Demonstrations
- arxiv url: http://arxiv.org/abs/2111.09971v2
- Date: Wed, 6 Dec 2023 00:09:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-07 19:58:26.757168
- Title: Learning Robust Output Control Barrier Functions from Safe Expert
Demonstrations
- Title(参考訳): 安全専門家によるロバストな出力制御障壁関数の学習
- Authors: Lars Lindemann, Alexander Robey, Lejun Jiang, Satyajeet Das, Stephen
Tu, and Nikolai Matni
- Abstract要約: まず,安全性を保証する手段として,ロバスト出力制御バリア関数(ROCBF)を提案する。
次に、安全なシステム動作を示す専門家による実証からROCBFを学習するための最適化問題を定式化する。
我々は,自律走行シミュレータCARLAのアルゴリズムを実証的に検証し,RGBカメラ画像から安全な制御法を学習する方法を実証する。
- 参考スコア(独自算出の注目度): 50.37808220291108
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper addresses learning safe output feedback control laws from partial
observations of expert demonstrations. We assume that a model of the system
dynamics and a state estimator are available along with corresponding error
bounds, e.g., estimated from data in practice. We first propose robust output
control barrier functions (ROCBFs) as a means to guarantee safety, as defined
through controlled forward invariance of a safe set. We then formulate an
optimization problem to learn ROCBFs from expert demonstrations that exhibit
safe system behavior, e.g., data collected from a human operator or an expert
controller. When the parametrization of the ROCBF is linear, then we show that,
under mild assumptions, the optimization problem is convex. Along with the
optimization problem, we provide verifiable conditions in terms of the density
of the data, smoothness of the system model and state estimator, and the size
of the error bounds that guarantee validity of the obtained ROCBF. Towards
obtaining a practical control algorithm, we propose an algorithmic
implementation of our theoretical framework that accounts for assumptions made
in our framework in practice. We empirically validate our algorithm in the
autonomous driving simulator CARLA and demonstrate how to learn safe control
laws from RGB camera images.
- Abstract(参考訳): 本稿では,熟練者による部分的観察から安全な出力フィードバック制御則の学習について述べる。
システムダイナミクスのモデルと状態推定器が,実際のデータから推定されるような,対応するエラー境界と共に利用できると仮定する。
まず,安全な集合の制御前方不変性を通じて定義された安全を保証する手段として,ロバスト出力制御障壁関数(ROCBF)を提案する。
次に、人間のオペレータや専門家のコントローラから収集したデータなど、安全なシステム動作を示す専門家のデモンストレーションからROCBFを学習するための最適化問題を定式化する。
ROCBFのパラメトリゼーションが線形であれば、軽微な仮定では最適化問題は凸であることを示す。
最適化問題に加えて,データの密度,システムモデルと状態推定器の滑らかさ,得られたROCBFの妥当性を保証する誤差境界の大きさなどの観点から検証可能な条件を提供する。
実用的な制御アルゴリズムを得るため,本手法の前提を考慮に入れた理論的枠組みのアルゴリズム実装を提案する。
我々は,自律走行シミュレータCARLAのアルゴリズムを実証的に検証し,RGBカメラ画像から安全な制御法を学習する方法を実証する。
関連論文リスト
- Model-Assisted Probabilistic Safe Adaptive Control With Meta-Bayesian
Learning [33.75998206184497]
メタラーニング,ベイズモデル,制御バリア関数(CBF)メソッドを統合した新しい適応型安全制御フレームワークを開発した。
具体的には、CBF法の助けを借りて、統一適応ベイズ線形回帰モデルにより固有不確かさと外部不確かさを学習する。
新しい制御タスクのために,いくつかのサンプルを用いてメタ学習モデルを洗練し,安全制御を確保するためにCBF制約に悲観的信頼境界を導入する。
論文 参考訳(メタデータ) (2023-07-03T08:16:01Z) - Recursively Feasible Probabilistic Safe Online Learning with Control
Barrier Functions [63.18590014127461]
本稿では,CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
本研究では,ロバストな安全クリティカルコントローラの実現可能性について検討する。
次に、これらの条件を使って、イベントトリガーによるオンラインデータ収集戦略を考案します。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Pointwise Feasibility of Gaussian Process-based Safety-Critical Control
under Model Uncertainty [77.18483084440182]
制御バリア関数(CBF)と制御リアプノフ関数(CLF)は、制御システムの安全性と安定性をそれぞれ強化するための一般的なツールである。
本稿では, CBF と CLF を用いた安全クリティカルコントローラにおいて, モデル不確実性に対処するためのガウスプロセス(GP)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-13T23:08:49Z) - Probabilistic robust linear quadratic regulators with Gaussian processes [73.0364959221845]
ガウス過程(GP)のような確率モデルは、制御設計に続く使用のためのデータから未知の動的システムを学ぶための強力なツールです。
本稿では、確率的安定性マージンに関して堅牢なコントローラを生成する線形化GPダイナミクスのための新しいコントローラ合成について述べる。
論文 参考訳(メタデータ) (2021-05-17T08:36:18Z) - Gaussian Process-based Min-norm Stabilizing Controller for
Control-Affine Systems with Uncertain Input Effects and Dynamics [90.81186513537777]
本稿では,この問題の制御・アフィン特性を捉えた新しい化合物カーネルを提案する。
この結果の最適化問題は凸であることを示し、ガウス過程に基づく制御リャプノフ関数第二次コーンプログラム(GP-CLF-SOCP)と呼ぶ。
論文 参考訳(メタデータ) (2020-11-14T01:27:32Z) - Reinforcement Learning Control of Constrained Dynamic Systems with
Uniformly Ultimate Boundedness Stability Guarantee [12.368097742148128]
強化学習(RL)は複雑な非線形制御問題に対して有望である。
データベースの学習アプローチは、安定性を保証していないことで悪名高い。
本稿では,古典的なリャプノフ法を用いて,データのみに基づいて一様極大境界性安定性(UUB)を解析する。
論文 参考訳(メタデータ) (2020-11-13T12:41:56Z) - Learning Control Barrier Functions from Expert Demonstrations [69.23675822701357]
制御障壁関数(CBF)に基づく安全な制御器合成のための学習に基づくアプローチを提案する。
最適化に基づくCBFの学習手法を解析し、基礎となる力学系のリプシッツ仮定の下で証明可能な安全保証を享受する。
私たちの知る限りでは、これらはデータから確実に安全な制御障壁関数を学習する最初の結果です。
論文 参考訳(メタデータ) (2020-04-07T12:29:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。