論文の概要: Reinforcement Learning for Safety-Critical Control under Model
Uncertainty, using Control Lyapunov Functions and Control Barrier Functions
- arxiv url: http://arxiv.org/abs/2004.07584v2
- Date: Thu, 4 Jun 2020 17:07:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 22:22:04.945695
- Title: Reinforcement Learning for Safety-Critical Control under Model
Uncertainty, using Control Lyapunov Functions and Control Barrier Functions
- Title(参考訳): 制御リアプノフ関数と制御バリア関数を用いたモデル不確かさ下における安全臨界制御の強化学習
- Authors: Jason Choi, Fernando Casta\~neda, Claire J. Tomlin, Koushil Sreenath
- Abstract要約: 強化学習フレームワークは、CBFおよびCLF制約に存在するモデル不確実性を学ぶ。
RL-CBF-CLF-QPは、安全制約におけるモデル不確実性の問題に対処する。
- 参考スコア(独自算出の注目度): 96.63967125746747
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, the issue of model uncertainty in safety-critical control is
addressed with a data-driven approach. For this purpose, we utilize the
structure of an input-ouput linearization controller based on a nominal model
along with a Control Barrier Function and Control Lyapunov Function based
Quadratic Program (CBF-CLF-QP). Specifically, we propose a novel reinforcement
learning framework which learns the model uncertainty present in the CBF and
CLF constraints, as well as other control-affine dynamic constraints in the
quadratic program. The trained policy is combined with the nominal model-based
CBF-CLF-QP, resulting in the Reinforcement Learning-based CBF-CLF-QP
(RL-CBF-CLF-QP), which addresses the problem of model uncertainty in the safety
constraints. The performance of the proposed method is validated by testing it
on an underactuated nonlinear bipedal robot walking on randomly spaced stepping
stones with one step preview, obtaining stable and safe walking under model
uncertainty.
- Abstract(参考訳): 本稿では,安全クリティカル制御におけるモデル不確実性の問題に,データ駆動型アプローチで対処する。
そこで本研究では,制御バリア関数と制御リャプノフ関数に基づく準数値プログラム(CBF-CLF-QP)とともに,名目モデルに基づく入出力線形化制御器の構成を利用する。
具体的には、CBFおよびCLF制約に存在するモデル不確かさと二次プログラムにおける他の制御-アフィン動的制約を学習する新しい強化学習フレームワークを提案する。
訓練された方針は、名目上のモデルに基づくCBF-CLF-QPと組み合わせられ、強化学習に基づくCBF-CLF-QP(RL-CBF-CLF-QP)が安全制約におけるモデル不確実性の問題に対処する。
モデル不確実性の下で安定かつ安全に歩行できる無作為な二足歩行ロボットを1ステップのプレビューで無作為に間隔を置いたまま歩行することで,提案手法の性能を検証した。
関連論文リスト
- Pareto Control Barrier Function for Inner Safe Set Maximization Under Input Constraints [50.920465513162334]
入力制約下での動的システムの内部安全集合を最大化するPCBFアルゴリズムを提案する。
逆振り子に対するハミルトン・ヤコビの到達性との比較と,12次元四元数系のシミュレーションにより,その有効性を検証する。
その結果,PCBFは既存の手法を一貫して上回り,入力制約下での安全性を確保した。
論文 参考訳(メタデータ) (2024-10-05T18:45:19Z) - Safe Neural Control for Non-Affine Control Systems with Differentiable
Control Barrier Functions [58.19198103790931]
本稿では,非アフィン制御系における安全クリティカル制御の問題に対処する。
制御バリア関数(CBF)を用いて,状態制約と制御制約の2次コストの最適化を2次プログラムのシーケンス(QP)にサブ最適化できることが示されている。
我々は,高次CBFをニューラル常微分方程式に基づく学習モデルに差分CBFとして組み込んで,非アフィン制御系の安全性を保証する。
論文 参考訳(メタデータ) (2023-09-06T05:35:48Z) - Model-Assisted Probabilistic Safe Adaptive Control With Meta-Bayesian
Learning [33.75998206184497]
メタラーニング,ベイズモデル,制御バリア関数(CBF)メソッドを統合した新しい適応型安全制御フレームワークを開発した。
具体的には、CBF法の助けを借りて、統一適応ベイズ線形回帰モデルにより固有不確かさと外部不確かさを学習する。
新しい制御タスクのために,いくつかのサンプルを用いてメタ学習モデルを洗練し,安全制御を確保するためにCBF制約に悲観的信頼境界を導入する。
論文 参考訳(メタデータ) (2023-07-03T08:16:01Z) - Stable and Safe Reinforcement Learning via a Barrier-Lyapunov
Actor-Critic Approach [1.8924647429604111]
Barrier-Lyapunov Actor-Critic(BLAC)フレームワークは、前述のシステムの安全性と安定性の維持を支援する。
RLベースのコントローラが有効な制御信号を提供できない場合、追加のバックアップコントローラが導入される。
論文 参考訳(メタデータ) (2023-04-08T16:48:49Z) - Differentiable Predictive Control with Safety Guarantees: A Control
Barrier Function Approach [3.617866023850784]
我々は、安全性と堅牢性を保証する新しい形態の微分可能予測制御(DPC)を開発した。
DPCは、明示的モデル予測制御(MPC)問題に対する近似解を得るための教師なし学習に基づく手法である。
論文 参考訳(メタデータ) (2022-08-03T19:24:44Z) - Learning Robust Output Control Barrier Functions from Safe Expert Demonstrations [50.37808220291108]
本稿では,専門家によるデモンストレーションの部分的な観察から,安全な出力フィードバック制御法を考察する。
まず,安全性を保証する手段として,ロバスト出力制御バリア関数(ROCBF)を提案する。
次に、安全なシステム動作を示す専門家による実証からROCBFを学習するための最適化問題を定式化する。
論文 参考訳(メタデータ) (2021-11-18T23:21:00Z) - Pointwise Feasibility of Gaussian Process-based Safety-Critical Control
under Model Uncertainty [77.18483084440182]
制御バリア関数(CBF)と制御リアプノフ関数(CLF)は、制御システムの安全性と安定性をそれぞれ強化するための一般的なツールである。
本稿では, CBF と CLF を用いた安全クリティカルコントローラにおいて, モデル不確実性に対処するためのガウスプロセス(GP)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-13T23:08:49Z) - Learning Control Barrier Functions from Expert Demonstrations [69.23675822701357]
制御障壁関数(CBF)に基づく安全な制御器合成のための学習に基づくアプローチを提案する。
最適化に基づくCBFの学習手法を解析し、基礎となる力学系のリプシッツ仮定の下で証明可能な安全保証を享受する。
私たちの知る限りでは、これらはデータから確実に安全な制御障壁関数を学習する最初の結果です。
論文 参考訳(メタデータ) (2020-04-07T12:29:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。