論文の概要: BarrierNet: A Safety-Guaranteed Layer for Neural Networks
- arxiv url: http://arxiv.org/abs/2111.11277v1
- Date: Mon, 22 Nov 2021 15:38:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-23 17:41:29.752699
- Title: BarrierNet: A Safety-Guaranteed Layer for Neural Networks
- Title(参考訳): BarrierNet: ニューラルネットワークのための安全保証層
- Authors: Wei Xiao and Ramin Hasani and Xiao Li and Daniela Rus
- Abstract要約: BarrierNetは、ニューラルコントローラの安全性の制約が環境の変化に適応できるようにする。
本研究では,2次元空間と3次元空間における交通統合やロボットナビゲーションといった一連の制御問題について評価する。
- 参考スコア(独自算出の注目度): 50.86816322277293
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces differentiable higher-order control barrier functions
(CBF) that are end-to-end trainable together with learning systems. CBFs are
usually overly conservative, while guaranteeing safety. Here, we address their
conservativeness by softening their definitions using environmental
dependencies without loosing safety guarantees, and embed them into
differentiable quadratic programs. These novel safety layers, termed a
BarrierNet, can be used in conjunction with any neural network-based
controller, and can be trained by gradient descent. BarrierNet allows the
safety constraints of a neural controller be adaptable to changing
environments. We evaluate them on a series of control problems such as traffic
merging and robot navigations in 2D and 3D space, and demonstrate their
effectiveness compared to state-of-the-art approaches.
- Abstract(参考訳): 本稿では,学習システムとともにエンドツーエンドの学習が可能な高次制御障壁関数(CBF)を提案する。
CBFは通常過度に保守的であるが、安全は保証されている。
ここでは、安全保証を損なうことなく、環境依存を用いて定義を軟化し、異なる二次プログラムに組み込むことにより、彼らの保守性に対処する。
BarrierNetと呼ばれるこれらの新しい安全レイヤは、任意のニューラルネットワークベースのコントローラと組み合わせて使用することができ、勾配降下によってトレーニングすることができる。
BarrierNetは、ニューラルコントローラの安全性の制約が環境の変化に適応できるようにする。
2次元および3次元空間におけるトラヒックマージやロボットナビゲーションなどの一連の制御問題について評価し,その効果を最先端のアプローチと比較した。
関連論文リスト
- Pareto Control Barrier Function for Inner Safe Set Maximization Under Input Constraints [50.920465513162334]
入力制約下での動的システムの内部安全集合を最大化するPCBFアルゴリズムを提案する。
逆振り子に対するハミルトン・ヤコビの到達性との比較と,12次元四元数系のシミュレーションにより,その有効性を検証する。
その結果,PCBFは既存の手法を一貫して上回り,入力制約下での安全性を確保した。
論文 参考訳(メタデータ) (2024-10-05T18:45:19Z) - Safe Neural Control for Non-Affine Control Systems with Differentiable
Control Barrier Functions [58.19198103790931]
本稿では,非アフィン制御系における安全クリティカル制御の問題に対処する。
制御バリア関数(CBF)を用いて,状態制約と制御制約の2次コストの最適化を2次プログラムのシーケンス(QP)にサブ最適化できることが示されている。
我々は,高次CBFをニューラル常微分方程式に基づく学習モデルに差分CBFとして組み込んで,非アフィン制御系の安全性を保証する。
論文 参考訳(メタデータ) (2023-09-06T05:35:48Z) - Online Control Barrier Functions for Decentralized Multi-Agent
Navigation [15.876920170393168]
制御バリア関数(CBF)は、連続領域における安全なマルチエージェントナビゲーションを可能にする。
伝統的なアプローチでは、パラメータが Apriori にチューニングされる固定CBF を考える。
オンラインCBFを提案し、ハイパーパラメータをリアルタイムに調整する。
論文 参考訳(メタデータ) (2023-03-08T01:28:18Z) - Enforcing Hard Constraints with Soft Barriers: Safe Reinforcement
Learning in Unknown Stochastic Environments [84.3830478851369]
本研究では,環境を協調的に学習し,制御ポリシーを最適化する安全な強化学習手法を提案する。
本手法は, 安全性の制約を効果的に適用し, シミュレーションにより測定したシステム安全率においてCMDPベースのベースライン法を著しく上回っている。
論文 参考訳(メタデータ) (2022-09-29T20:49:25Z) - Differentiable Safe Controller Design through Control Barrier Functions [8.283758049749782]
学習ベースのコントローラは、高い経験的性能を示すことができるが、正式な安全保証がない。
制御障壁関数(CBF)は、学習ベースコントローラの出力を監視・修正するための安全フィルタとして応用されている。
本稿では,CBF ベースの安全層を識別可能な NN コントローラを提案する。
論文 参考訳(メタデータ) (2022-09-20T23:03:22Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Differentiable Control Barrier Functions for Vision-based End-to-End
Autonomous Driving [100.57791628642624]
本稿では,視覚に基づくエンドツーエンド自動運転のための安全保証学習フレームワークを提案する。
我々は、勾配降下によりエンドツーエンドに訓練された微分制御バリア関数(dCBF)を備えた学習システムを設計する。
論文 参考訳(メタデータ) (2022-03-04T16:14:33Z) - Learning Differentiable Safety-Critical Control using Control Barrier
Functions for Generalization to Novel Environments [16.68313219331689]
制御バリア機能(CBF)は、制御システムの安全性を強制するための一般的なツールとなっている。
本稿では,最適化に基づく安全クリティカル制御フレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-04T20:43:37Z) - Failing with Grace: Learning Neural Network Controllers that are
Boundedly Unsafe [18.34490939288318]
小型の作業空間で任意の形状のロボットを安全に操縦するために、フィードフォワードニューラルネットワーク(NN)コントローラを学習する問題を考察する。
本稿では,実際に満たすのが難しいデータに対して,そのような仮定を持ち上げるアプローチを提案する。
提案手法の有効性を検証したシミュレーション研究を提案する。
論文 参考訳(メタデータ) (2021-06-22T15:51:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。