論文の概要: Learning Conservative Neural Control Barrier Functions from Offline Data
- arxiv url: http://arxiv.org/abs/2505.00908v2
- Date: Thu, 18 Sep 2025 08:32:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-19 15:20:14.428965
- Title: Learning Conservative Neural Control Barrier Functions from Offline Data
- Title(参考訳): オフラインデータから保守的ニューラルコントロールバリア関数を学習する
- Authors: Ihab Tabbara, Hussein Sibai,
- Abstract要約: オフラインデータセットからニューラルネットワークバリア関数をトレーニングするアルゴリズムを提案する。
我々のアルゴリズムはこれらの機能を訓練し、システムが安全でない状態に達するのを防げるだけでなく、配布外状態に到達するのを嫌うようにもしている。
実験の結果, CCBFはタスク性能に最小限の影響を与えつつ, 安全性を維持する上で, 既存の手法よりも優れていたことが確認された。
- 参考スコア(独自算出の注目度): 1.0026496861838448
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Safety filters, particularly those based on control barrier functions, have gained increased interest as effective tools for safe control of dynamical systems. Existing correct-by-construction synthesis algorithms for such filters, however, suffer from the curse-of-dimensionality. Deep learning approaches have been proposed in recent years to address this challenge. In this paper, we add to this set of approaches an algorithm for training neural control barrier functions from offline datasets. Such functions can be used to design constraints for quadratic programs that are then used as safety filters. Our algorithm trains these functions so that the system is not only prevented from reaching unsafe states but is also disincentivized from reaching out-of-distribution ones, at which they would be less reliable. It is inspired by Conservative Q-learning, an offline reinforcement learning algorithm. We call its outputs Conservative Control Barrier Functions (CCBFs). Our empirical results demonstrate that CCBFs outperform existing methods in maintaining safety while minimally affecting task performance. Source code is available at https://github.com/tabz23/CCBF.
- Abstract(参考訳): 安全フィルタ、特に制御障壁関数に基づくフィルタは、動的システムの安全な制御のための効果的なツールとして関心を集めている。
しかし、そのようなフィルタに対する既存の正しい構成合成アルゴリズムは、寸法の呪いに悩まされている。
近年,この課題に対処するためのディープラーニングアプローチが提案されている。
本稿では、オフラインデータセットからニューラルネットワークバリア関数をトレーニングするためのアルゴリズムを、この一連のアプローチに追加する。
このような関数は、安全フィルタとして使用される二次プログラムの制約を設計するのに使うことができる。
我々のアルゴリズムは、システムが安全でない状態に達するのを防げるだけでなく、より信頼性の低い流通状態に到達するのを嫌うよう、これらの機能を訓練する。
これはオフラインの強化学習アルゴリズムである保守的なQ-ラーニングにインスパイアされている。
我々はその出力を保守制御バリア関数 (CCBF) と呼ぶ。
実験の結果, CCBFはタスク性能に最小限の影響を与えつつ, 安全性を維持する上で, 既存の手法よりも優れていたことが確認された。
ソースコードはhttps://github.com/tabz23/CCBFで入手できる。
関連論文リスト
- Estimating Control Barriers from Offline Data [14.241303913878887]
本稿では、トレーニング前に収集した厳密なラベル付きデータセットを通じて、ニューラルCBFを学習するための新しいフレームワークを提案する。
オフラインデータの量は限られており、動的障害物回避のための最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-02-21T04:55:20Z) - Pareto Control Barrier Function for Inner Safe Set Maximization Under Input Constraints [50.920465513162334]
入力制約下での動的システムの内部安全集合を最大化するPCBFアルゴリズムを提案する。
逆振り子に対するハミルトン・ヤコビの到達性との比較と,12次元四元数系のシミュレーションにより,その有効性を検証する。
その結果,PCBFは既存の手法を一貫して上回り,入力制約下での安全性を確保した。
論文 参考訳(メタデータ) (2024-10-05T18:45:19Z) - In-Distribution Barrier Functions: Self-Supervised Policy Filters that
Avoid Out-of-Distribution States [84.24300005271185]
本稿では,任意の参照ポリシーをラップした制御フィルタを提案する。
本手法は、トップダウンとエゴセントリックの両方のビュー設定を含むシミュレーション環境における2つの異なるビズモータ制御タスクに有効である。
論文 参考訳(メタデータ) (2023-01-27T22:28:19Z) - Safe and Efficient Reinforcement Learning Using
Disturbance-Observer-Based Control Barrier Functions [5.571154223075409]
本稿では、外乱オブザーバ(DOB)と制御バリア機能(CBF)を用いた安全かつ効率的な強化学習(RL)手法を提案する。
本手法はモデル学習を伴わず,DOBを用いて不確実性のポイントワイド値を正確に推定し,安全行動を生成するための頑健なCBF条件に組み込む。
提案手法は,CBFとガウス過程に基づくモデル学習を用いて,最先端の安全なRLアルゴリズムより優れていることを示す。
論文 参考訳(メタデータ) (2022-11-30T18:49:53Z) - Safe Control Under Input Limits with Neural Control Barrier Functions [3.5270468102327004]
入力飽和を回避する制御バリア関数(CBF)をベースとした安全制御系を新たに構築する手法を提案する。
ニューラルネットワークやディープラーニングといった機械学習のテクニックを活用して、非線形制御設計におけるこの難しい問題を単純化します。
本研究では,10D状態,4D入力クアッドコプター-ペンデュラムシステムに対する実験結果について述べる。
論文 参考訳(メタデータ) (2022-11-20T19:01:37Z) - Sample-efficient Safe Learning for Online Nonlinear Control with Control
Barrier Functions [35.9713619595494]
強化学習と連続非線形制御は、複雑なシーケンシャルな意思決定タスクの複数の領域にうまく展開されている。
学習過程の探索特性とモデル不確実性の存在を考えると、それらを安全クリティカルな制御タスクに適用することは困難である。
本稿では,オンライン制御タスクを対象とした,効率のよいエピソード型安全な学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-29T00:54:35Z) - BarrierNet: A Safety-Guaranteed Layer for Neural Networks [50.86816322277293]
BarrierNetは、ニューラルコントローラの安全性の制約が環境の変化に適応できるようにする。
本研究では,2次元空間と3次元空間における交通統合やロボットナビゲーションといった一連の制御問題について評価する。
論文 参考訳(メタデータ) (2021-11-22T15:38:11Z) - Safe RAN control: A Symbolic Reinforcement Learning Approach [62.997667081978825]
本稿では,無線アクセスネットワーク(RAN)アプリケーションの安全管理のためのシンボル強化学習(SRL)アーキテクチャを提案する。
我々は、ユーザが所定のセルネットワークトポロジに対して高レベルの論理的安全性仕様を指定できる純粋に自動化された手順を提供する。
ユーザがシステムに意図仕様を設定するのを支援するために開発されたユーザインターフェース(UI)を導入し、提案するエージェントの動作の違いを検査する。
論文 参考訳(メタデータ) (2021-06-03T16:45:40Z) - Chance-Constrained Trajectory Optimization for Safe Exploration and
Learning of Nonlinear Systems [81.7983463275447]
学習に基づく制御アルゴリズムは、訓練のための豊富な監督を伴うデータ収集を必要とする。
本稿では,機会制約付き最適制御と動的学習とフィードバック制御を統合した安全な探索による最適動作計画のための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-05-09T05:57:43Z) - Learning Control Barrier Functions from Expert Demonstrations [69.23675822701357]
制御障壁関数(CBF)に基づく安全な制御器合成のための学習に基づくアプローチを提案する。
最適化に基づくCBFの学習手法を解析し、基礎となる力学系のリプシッツ仮定の下で証明可能な安全保証を享受する。
私たちの知る限りでは、これらはデータから確実に安全な制御障壁関数を学習する最初の結果です。
論文 参考訳(メタデータ) (2020-04-07T12:29:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。