論文の概要: Learning Robust Output Control Barrier Functions from Safe Expert
Demonstrations
- arxiv url: http://arxiv.org/abs/2111.09971v2
- Date: Wed, 6 Dec 2023 00:09:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-07 19:58:26.757168
- Title: Learning Robust Output Control Barrier Functions from Safe Expert
Demonstrations
- Title(参考訳): 安全専門家によるロバストな出力制御障壁関数の学習
- Authors: Lars Lindemann, Alexander Robey, Lejun Jiang, Satyajeet Das, Stephen
Tu, and Nikolai Matni
- Abstract要約: まず,安全性を保証する手段として,ロバスト出力制御バリア関数(ROCBF)を提案する。
次に、安全なシステム動作を示す専門家による実証からROCBFを学習するための最適化問題を定式化する。
我々は,自律走行シミュレータCARLAのアルゴリズムを実証的に検証し,RGBカメラ画像から安全な制御法を学習する方法を実証する。
- 参考スコア(独自算出の注目度): 50.37808220291108
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper addresses learning safe output feedback control laws from partial
observations of expert demonstrations. We assume that a model of the system
dynamics and a state estimator are available along with corresponding error
bounds, e.g., estimated from data in practice. We first propose robust output
control barrier functions (ROCBFs) as a means to guarantee safety, as defined
through controlled forward invariance of a safe set. We then formulate an
optimization problem to learn ROCBFs from expert demonstrations that exhibit
safe system behavior, e.g., data collected from a human operator or an expert
controller. When the parametrization of the ROCBF is linear, then we show that,
under mild assumptions, the optimization problem is convex. Along with the
optimization problem, we provide verifiable conditions in terms of the density
of the data, smoothness of the system model and state estimator, and the size
of the error bounds that guarantee validity of the obtained ROCBF. Towards
obtaining a practical control algorithm, we propose an algorithmic
implementation of our theoretical framework that accounts for assumptions made
in our framework in practice. We empirically validate our algorithm in the
autonomous driving simulator CARLA and demonstrate how to learn safe control
laws from RGB camera images.
- Abstract(参考訳): 本稿では,熟練者による部分的観察から安全な出力フィードバック制御則の学習について述べる。
システムダイナミクスのモデルと状態推定器が,実際のデータから推定されるような,対応するエラー境界と共に利用できると仮定する。
まず,安全な集合の制御前方不変性を通じて定義された安全を保証する手段として,ロバスト出力制御障壁関数(ROCBF)を提案する。
次に、人間のオペレータや専門家のコントローラから収集したデータなど、安全なシステム動作を示す専門家のデモンストレーションからROCBFを学習するための最適化問題を定式化する。
ROCBFのパラメトリゼーションが線形であれば、軽微な仮定では最適化問題は凸であることを示す。
最適化問題に加えて,データの密度,システムモデルと状態推定器の滑らかさ,得られたROCBFの妥当性を保証する誤差境界の大きさなどの観点から検証可能な条件を提供する。
実用的な制御アルゴリズムを得るため,本手法の前提を考慮に入れた理論的枠組みのアルゴリズム実装を提案する。
我々は,自律走行シミュレータCARLAのアルゴリズムを実証的に検証し,RGBカメラ画像から安全な制御法を学習する方法を実証する。
関連論文リスト
- Automatically Adaptive Conformal Risk Control [49.95190019041905]
本稿では,テストサンプルの難易度に適応して,統計的リスクの近似的条件制御を実現する手法を提案する。
我々のフレームワークは、ユーザが提供するコンディショニングイベントに基づく従来のコンディショニングリスク制御を超えて、コンディショニングに適した関数クラスのアルゴリズム的、データ駆動決定を行う。
論文 参考訳(メタデータ) (2024-06-25T08:29:32Z) - Stable Inverse Reinforcement Learning: Policies from Control Lyapunov Landscapes [4.229902091180109]
実験データからリアプノフ関数を学習するための新しい安定度認証IRL手法を提案する。
関連する制御ポリシーのクローズドフォーム表現を利用することで、CLFの空間を効率的に探索することができる。
我々は,CLFが提供する最適性に関する理論的解析を行い,シミュレーションデータと実世界データの両方を用いて我々のアプローチを評価する。
論文 参考訳(メタデータ) (2024-05-14T16:40:45Z) - Model-Assisted Probabilistic Safe Adaptive Control With Meta-Bayesian
Learning [33.75998206184497]
メタラーニング,ベイズモデル,制御バリア関数(CBF)メソッドを統合した新しい適応型安全制御フレームワークを開発した。
具体的には、CBF法の助けを借りて、統一適応ベイズ線形回帰モデルにより固有不確かさと外部不確かさを学習する。
新しい制御タスクのために,いくつかのサンプルを用いてメタ学習モデルを洗練し,安全制御を確保するためにCBF制約に悲観的信頼境界を導入する。
論文 参考訳(メタデータ) (2023-07-03T08:16:01Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Pointwise Feasibility of Gaussian Process-based Safety-Critical Control
under Model Uncertainty [77.18483084440182]
制御バリア関数(CBF)と制御リアプノフ関数(CLF)は、制御システムの安全性と安定性をそれぞれ強化するための一般的なツールである。
本稿では, CBF と CLF を用いた安全クリティカルコントローラにおいて, モデル不確実性に対処するためのガウスプロセス(GP)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-13T23:08:49Z) - Gaussian Process-based Min-norm Stabilizing Controller for
Control-Affine Systems with Uncertain Input Effects and Dynamics [90.81186513537777]
本稿では,この問題の制御・アフィン特性を捉えた新しい化合物カーネルを提案する。
この結果の最適化問題は凸であることを示し、ガウス過程に基づく制御リャプノフ関数第二次コーンプログラム(GP-CLF-SOCP)と呼ぶ。
論文 参考訳(メタデータ) (2020-11-14T01:27:32Z) - Reinforcement Learning Control of Constrained Dynamic Systems with
Uniformly Ultimate Boundedness Stability Guarantee [12.368097742148128]
強化学習(RL)は複雑な非線形制御問題に対して有望である。
データベースの学習アプローチは、安定性を保証していないことで悪名高い。
本稿では,古典的なリャプノフ法を用いて,データのみに基づいて一様極大境界性安定性(UUB)を解析する。
論文 参考訳(メタデータ) (2020-11-13T12:41:56Z) - Learning Control Barrier Functions from Expert Demonstrations [69.23675822701357]
制御障壁関数(CBF)に基づく安全な制御器合成のための学習に基づくアプローチを提案する。
最適化に基づくCBFの学習手法を解析し、基礎となる力学系のリプシッツ仮定の下で証明可能な安全保証を享受する。
私たちの知る限りでは、これらはデータから確実に安全な制御障壁関数を学習する最初の結果です。
論文 参考訳(メタデータ) (2020-04-07T12:29:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。