論文の概要: Safe Control Under Input Limits with Neural Control Barrier Functions
- arxiv url: http://arxiv.org/abs/2211.11056v1
- Date: Sun, 20 Nov 2022 19:01:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 22:46:46.046348
- Title: Safe Control Under Input Limits with Neural Control Barrier Functions
- Title(参考訳): ニューラルコントロールバリア機能を有する入力限界下におけるセーフコントロール
- Authors: Simin Liu, Changliu Liu, and John Dolan
- Abstract要約: 入力飽和を回避する制御バリア関数(CBF)をベースとした安全制御系を新たに構築する手法を提案する。
ニューラルネットワークやディープラーニングといった機械学習のテクニックを活用して、非線形制御設計におけるこの難しい問題を単純化します。
本研究では,10D状態,4D入力クアッドコプター-ペンデュラムシステムに対する実験結果について述べる。
- 参考スコア(独自算出の注目度): 3.5270468102327004
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose new methods to synthesize control barrier function (CBF)-based
safe controllers that avoid input saturation, which can cause safety
violations. In particular, our method is created for high-dimensional, general
nonlinear systems, for which such tools are scarce. We leverage techniques from
machine learning, like neural networks and deep learning, to simplify this
challenging problem in nonlinear control design. The method consists of a
learner-critic architecture, in which the critic gives counterexamples of input
saturation and the learner optimizes a neural CBF to eliminate those
counterexamples. We provide empirical results on a 10D state, 4D input
quadcopter-pendulum system. Our learned CBF avoids input saturation and
maintains safety over nearly 100% of trials.
- Abstract(参考訳): 本研究では, 入力飽和を回避し, 安全性を損なう恐れのある制御バリア関数(cbf)ベースの安全制御器を合成する新しい手法を提案する。
特に,本手法は,そのようなツールが不足している高次元一般非線形システムに対して開発された。
ニューラルネットワークやディープラーニングといった機械学習のテクニックを活用して、非線形制御設計におけるこの難しい問題を単純化します。
この手法は学習者批判アーキテクチャから成り、批判者は入力飽和の反例を与え、学習者はニューラルCBFを最適化してそれらの反例を除去する。
10d状態,4d入力クワッドコプター-振り子系の実験結果を示す。
学習したCBFは入力飽和を回避し、100%近い試験の安全性を維持する。
関連論文リスト
- Fault Tolerant Neural Control Barrier Functions for Robotic Systems
under Sensor Faults and Attacks [6.314000948709254]
センサ故障および攻撃下でのロボットシステムの安全臨界制御合成について検討した。
我々の主な貢献は、障害耐性神経制御バリア機能(FT-NCBF)と呼ばれる新しいCBFの開発と合成である。
論文 参考訳(メタデータ) (2024-02-28T19:44:19Z) - Exact Verification of ReLU Neural Control Barrier Functions [25.44521208451216]
制御バリア関数(CBF)は非線形システムの安全な制御のための一般的なアプローチである。
CBFをニューラルネットワークとして表現する最近の機械学習手法は、非常に有望である。
本稿では,ReLU アクティベーション機能付きフィードフォワード NCBF の安全性を検証するための,新しい正確な条件とアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-13T18:59:04Z) - Safe Neural Control for Non-Affine Control Systems with Differentiable
Control Barrier Functions [58.19198103790931]
本稿では,非アフィン制御系における安全クリティカル制御の問題に対処する。
制御バリア関数(CBF)を用いて,状態制約と制御制約の2次コストの最適化を2次プログラムのシーケンス(QP)にサブ最適化できることが示されている。
我々は,高次CBFをニューラル常微分方程式に基づく学習モデルに差分CBFとして組み込んで,非アフィン制御系の安全性を保証する。
論文 参考訳(メタデータ) (2023-09-06T05:35:48Z) - In-Distribution Barrier Functions: Self-Supervised Policy Filters that
Avoid Out-of-Distribution States [84.24300005271185]
本稿では,任意の参照ポリシーをラップした制御フィルタを提案する。
本手法は、トップダウンとエゴセントリックの両方のビュー設定を含むシミュレーション環境における2つの異なるビズモータ制御タスクに有効である。
論文 参考訳(メタデータ) (2023-01-27T22:28:19Z) - Log Barriers for Safe Black-box Optimization with Application to Safe
Reinforcement Learning [72.97229770329214]
本稿では,学習時の安全性維持が不可欠である高次元非線形最適化問題に対する一般的なアプローチを提案する。
LBSGDと呼ばれるアプローチは、慎重に選択されたステップサイズで対数障壁近似を適用することに基づいている。
安全強化学習における政策課題の違反を最小限に抑えるためのアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-07-21T11:14:47Z) - Learning Robust Output Control Barrier Functions from Safe Expert Demonstrations [50.37808220291108]
本稿では,専門家によるデモンストレーションの部分的な観察から,安全な出力フィードバック制御法を考察する。
まず,安全性を保証する手段として,ロバスト出力制御バリア関数(ROCBF)を提案する。
次に、安全なシステム動作を示す専門家による実証からROCBFを学習するための最適化問題を定式化する。
論文 参考訳(メタデータ) (2021-11-18T23:21:00Z) - Enforcing robust control guarantees within neural network policies [76.00287474159973]
本稿では、ニューラルネットワークによってパラメータ化され、ロバスト制御と同じ証明可能なロバスト性基準を適用した、一般的な非線形制御ポリシークラスを提案する。
提案手法は,複数の領域において有効であり,既存のロバスト制御法よりも平均ケース性能が向上し,(非ロバスト)深部RL法よりも最悪のケース安定性が向上した。
論文 参考訳(メタデータ) (2020-11-16T17:14:59Z) - Control Barrier Functions for Unknown Nonlinear Systems using Gaussian
Processes [17.870440210358847]
本稿では,安全制約を確保しつつ,未知の非線形システムに対する制御器の合成に焦点をあてる。
学習段階において、未知の制御アフィン非線形力学を学習するために、学習したモデルの精度に統計的に拘束されるように、データ駆動方式を用いる。
第2の制御器合成ステップでは,学習モデルの不確実性を考慮した制御障壁関数の計算方式を開発する。
論文 参考訳(メタデータ) (2020-10-12T16:12:52Z) - Learning Control Barrier Functions from Expert Demonstrations [69.23675822701357]
制御障壁関数(CBF)に基づく安全な制御器合成のための学習に基づくアプローチを提案する。
最適化に基づくCBFの学習手法を解析し、基礎となる力学系のリプシッツ仮定の下で証明可能な安全保証を享受する。
私たちの知る限りでは、これらはデータから確実に安全な制御障壁関数を学習する最初の結果です。
論文 参考訳(メタデータ) (2020-04-07T12:29:06Z) - Training Neural Network Controllers Using Control Barrier Functions in
the Presence of Disturbances [9.21721532941863]
本稿では,ニューラルネットワークに基づくフィードバックコントローラの学習に模倣学習を用いることを提案する。
また,外乱下におけるシステムのための新しい高次CBFも開発している。
論文 参考訳(メタデータ) (2020-01-18T18:43:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。