論文の概要: Learning Control Barrier Functions from Expert Demonstrations
- arxiv url: http://arxiv.org/abs/2004.03315v3
- Date: Mon, 9 Nov 2020 00:02:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 00:59:41.888366
- Title: Learning Control Barrier Functions from Expert Demonstrations
- Title(参考訳): エキスパート・デモからの学習制御障壁関数
- Authors: Alexander Robey, Haimin Hu, Lars Lindemann, Hanwen Zhang, Dimos V.
Dimarogonas, Stephen Tu, Nikolai Matni
- Abstract要約: 制御障壁関数(CBF)に基づく安全な制御器合成のための学習に基づくアプローチを提案する。
最適化に基づくCBFの学習手法を解析し、基礎となる力学系のリプシッツ仮定の下で証明可能な安全保証を享受する。
私たちの知る限りでは、これらはデータから確実に安全な制御障壁関数を学習する最初の結果です。
- 参考スコア(独自算出の注目度): 69.23675822701357
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Inspired by the success of imitation and inverse reinforcement learning in
replicating expert behavior through optimal control, we propose a learning
based approach to safe controller synthesis based on control barrier functions
(CBFs). We consider the setting of a known nonlinear control affine dynamical
system and assume that we have access to safe trajectories generated by an
expert - a practical example of such a setting would be a kinematic model of a
self-driving vehicle with safe trajectories (e.g., trajectories that avoid
collisions with obstacles in the environment) generated by a human driver. We
then propose and analyze an optimization-based approach to learning a CBF that
enjoys provable safety guarantees under suitable Lipschitz smoothness
assumptions on the underlying dynamical system. A strength of our approach is
that it is agnostic to the parameterization used to represent the CBF, assuming
only that the Lipschitz constant of such functions can be efficiently bounded.
Furthermore, if the CBF parameterization is convex, then under mild
assumptions, so is our learning process. We end with extensive numerical
evaluations of our results on both planar and realistic examples, using both
random feature and deep neural network parameterizations of the CBF. To the
best of our knowledge, these are the first results that learn provably safe
control barrier functions from data.
- Abstract(参考訳): 最適制御によるエキスパート行動の再現における模倣と逆強化学習の成功に触発され,制御障壁関数(cbfs)に基づく安全制御合成への学習ベースのアプローチを提案する。
我々は、既知の非線形制御アフィン力学系の設定を考慮し、専門家が生成する安全な軌跡にアクセスできると仮定する。そのような設定の実践例は、人間の運転者が生成する安全な軌跡(例えば、環境の障害物との衝突を避けるための軌跡)を持つ自動運転車の運動モデルである。
次に,基盤となる力学系上の適切なリプシッツ平滑性仮定の下で証明可能な安全性保証を享受するcbf学習のための最適化に基づくアプローチを提案し,解析する。
我々のアプローチの強みは、そのような関数のリプシッツ定数が効率的に有界であることだけを仮定して、CBFを表すのに使われるパラメータ化に非依存であることである。
さらに、cbfパラメータ化が凸であれば、穏やかな仮定の下では、学習プロセスもそうである。
CBFのランダム特徴とディープニューラルネットワークパラメタライゼーションの両方を用いて, 平面的, 実例的両方の結果について, 広範囲に数値評価を行った。
私たちの知る限りでは、これらはデータから確実に安全な制御障壁関数を学習する最初の結果です。
関連論文リスト
- Domain Adaptive Safety Filters via Deep Operator Learning [5.62479170374811]
本稿では,環境パラメータから対応するCBFへのマッピングを学習する自己教師型深層演算子学習フレームワークを提案する。
動的障害物を含むナビゲーションタスクの数値実験により,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-10-18T15:10:55Z) - Safe and Stable Closed-Loop Learning for Neural-Network-Supported Model Predictive Control [0.0]
基礎となるプロセスについて不完全な情報で操作するパラメタライズド予測コントローラの安全な学習について検討する。
本手法は, クローズドループにおけるシステム全体の長期的性能を安全かつ安定に保ちながら重視する。
ベイズ最適化に基づく学習手法に安定性情報を明示的に組み込むことにより,厳密な確率論的安全保証を実現する。
論文 参考訳(メタデータ) (2024-09-16T11:03:58Z) - Safe Neural Control for Non-Affine Control Systems with Differentiable
Control Barrier Functions [58.19198103790931]
本稿では,非アフィン制御系における安全クリティカル制御の問題に対処する。
制御バリア関数(CBF)を用いて,状態制約と制御制約の2次コストの最適化を2次プログラムのシーケンス(QP)にサブ最適化できることが示されている。
我々は,高次CBFをニューラル常微分方程式に基づく学習モデルに差分CBFとして組み込んで,非アフィン制御系の安全性を保証する。
論文 参考訳(メタデータ) (2023-09-06T05:35:48Z) - Model-Assisted Probabilistic Safe Adaptive Control With Meta-Bayesian
Learning [33.75998206184497]
メタラーニング,ベイズモデル,制御バリア関数(CBF)メソッドを統合した新しい適応型安全制御フレームワークを開発した。
具体的には、CBF法の助けを借りて、統一適応ベイズ線形回帰モデルにより固有不確かさと外部不確かさを学習する。
新しい制御タスクのために,いくつかのサンプルを用いてメタ学習モデルを洗練し,安全制御を確保するためにCBF制約に悲観的信頼境界を導入する。
論文 参考訳(メタデータ) (2023-07-03T08:16:01Z) - Meta-Learning Priors for Safe Bayesian Optimization [72.8349503901712]
メタ学習アルゴリズムであるF-PACOHを構築し,データ不足の設定において確実な定量化を実現する。
コアコントリビューションとして、安全に適合した事前をデータ駆動で選択するための新しいフレームワークを開発する。
ベンチマーク関数と高精度動作系において,我々のメタ学習先行が安全なBOアプローチの収束を加速することを示す。
論文 参考訳(メタデータ) (2022-10-03T08:38:38Z) - Gaussian Control Barrier Functions : A Non-Parametric Paradigm to Safety [7.921648699199647]
ガウス過程(GP)を用いたCBFのオンライン合成のための非パラメトリック手法を提案する。
GPは解析的トラクタビリティやロバストな不確実性推定などの非パラメトリック性に加えて、好ましい性質を持つ。
固定的かつ任意の安全な集合に対する安全な制御を実証することにより、クワッド上で実験により検証する。
論文 参考訳(メタデータ) (2022-03-29T12:21:28Z) - Learning Robust Output Control Barrier Functions from Safe Expert Demonstrations [50.37808220291108]
本稿では,専門家によるデモンストレーションの部分的な観察から,安全な出力フィードバック制御法を考察する。
まず,安全性を保証する手段として,ロバスト出力制御バリア関数(ROCBF)を提案する。
次に、安全なシステム動作を示す専門家による実証からROCBFを学習するための最適化問題を定式化する。
論文 参考訳(メタデータ) (2021-11-18T23:21:00Z) - Chance-Constrained Trajectory Optimization for Safe Exploration and
Learning of Nonlinear Systems [81.7983463275447]
学習に基づく制御アルゴリズムは、訓練のための豊富な監督を伴うデータ収集を必要とする。
本稿では,機会制約付き最適制御と動的学習とフィードバック制御を統合した安全な探索による最適動作計画のための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-05-09T05:57:43Z) - Reinforcement Learning for Safety-Critical Control under Model
Uncertainty, using Control Lyapunov Functions and Control Barrier Functions [96.63967125746747]
強化学習フレームワークは、CBFおよびCLF制約に存在するモデル不確実性を学ぶ。
RL-CBF-CLF-QPは、安全制約におけるモデル不確実性の問題に対処する。
論文 参考訳(メタデータ) (2020-04-16T10:51:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。