論文の概要: Learning Neural Control Barrier Functions from Expert Demonstrations using Inverse Constraint Learning
- arxiv url: http://arxiv.org/abs/2510.21560v1
- Date: Fri, 24 Oct 2025 15:20:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 09:00:15.52116
- Title: Learning Neural Control Barrier Functions from Expert Demonstrations using Inverse Constraint Learning
- Title(参考訳): 逆制約学習を用いたエキスパートによるニューラルネットワークバリア関数の学習
- Authors: Yuxuan Yang, Hussein Sibai,
- Abstract要約: 我々は、安全、すなわち制御された前方不変集合に属することを考慮し、システムの状態を分類する制約関数を訓練する。
次に、その関数を使用して、新しいシミュレートされた軌道のセットをラベル付けし、神経CBFをトレーニングします。
4つの異なる環境において、我々のアプローチを実証的に評価し、既存のベースラインよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 1.7235805533661985
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Safety is a fundamental requirement for autonomous systems operating in critical domains. Control barrier functions (CBFs) have been used to design safety filters that minimally alter nominal controls for such systems to maintain their safety. Learning neural CBFs has been proposed as a data-driven alternative for their computationally expensive optimization-based synthesis. However, it is often the case that the failure set of states that should be avoided is non-obvious or hard to specify formally, e.g., tailgating in autonomous driving, while a set of expert demonstrations that achieve the task and avoid the failure set is easier to generate. We use ICL to train a constraint function that classifies the states of the system under consideration to safe, i.e., belong to a controlled forward invariant set that is disjoint from the unspecified failure set, and unsafe ones, i.e., belong to the complement of that set. We then use that function to label a new set of simulated trajectories to train our neural CBF. We empirically evaluate our approach in four different environments, demonstrating that it outperforms existing baselines and achieves comparable performance to a neural CBF trained with the same data but annotated with ground-truth safety labels.
- Abstract(参考訳): 安全は、重要なドメインで動作する自律システムの基本的な要件である。
制御障壁関数 (CBF) は安全フィルタの設計に用いられており、その安全性を維持するために、そのようなシステムに対する名目上の制御を最小限に変更している。
計算コストのかかる最適化ベースの合成の代替として、ニューラルネットワークCBFの学習が提案されている。
しかし、回避すべき状態の失敗セットが、例えば自律運転の調整など、正式に指定することが困難である場合が多い一方で、タスクを達成し、失敗セットを避ける専門家のデモセットは、生成が容易である。
我々は、安全を考慮に入れたシステムの状態を分類する制約関数、すなわち、特定されていない障害集合から分離された制御された前方不変集合に属する制約関数、すなわち、その集合の補集合に属する制約関数の訓練にICLを使用する。
次に、その関数を使用して、新しいシミュレートされた軌道のセットをラベル付けし、神経CBFをトレーニングします。
4つの異なる環境において、我々のアプローチを実証的に評価し、既存のベースラインを上回り、同じデータでトレーニングされたが、地上の安全ラベルで注釈付けされた神経CBFに匹敵するパフォーマンスを達成することを実証した。
関連論文リスト
- CP-NCBF: A Conformal Prediction-based Approach to Synthesize Verified Neural Control Barrier Functions [2.092779643426281]
制御バリア関数(CBF)は、安全クリティカルなコントローラを設計するための実践的なアプローチである。
近年,ニューラルCBFのような学習ベースの手法でこの問題に対処する研究が進められている。
本稿では, 分割整形予測を利用して, 正式に検証されたニューラルCBFを生成する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-18T10:01:06Z) - Learning Performance-Oriented Control Barrier Functions Under Complex Safety Constraints and Limited Actuation [5.62479170374811]
制御バリア関数(CBF)は非線形制御系力学を制約するエレガントなフレームワークを提供する。
これらの課題に包括的に対処する,新たな自己教師型学習フレームワークを導入する。
本研究では,2次元ダブルインテグレータ(DI)システムと7次元固定翼航空機システムに対するアプローチを検証する。
論文 参考訳(メタデータ) (2024-01-11T02:51:49Z) - Safe Neural Control for Non-Affine Control Systems with Differentiable
Control Barrier Functions [58.19198103790931]
本稿では,非アフィン制御系における安全クリティカル制御の問題に対処する。
制御バリア関数(CBF)を用いて,状態制約と制御制約の2次コストの最適化を2次プログラムのシーケンス(QP)にサブ最適化できることが示されている。
我々は,高次CBFをニューラル常微分方程式に基づく学習モデルに差分CBFとして組み込んで,非アフィン制御系の安全性を保証する。
論文 参考訳(メタデータ) (2023-09-06T05:35:48Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Gaussian Control Barrier Functions : A Non-Parametric Paradigm to Safety [7.921648699199647]
ガウス過程(GP)を用いたCBFのオンライン合成のための非パラメトリック手法を提案する。
GPは解析的トラクタビリティやロバストな不確実性推定などの非パラメトリック性に加えて、好ましい性質を持つ。
固定的かつ任意の安全な集合に対する安全な制御を実証することにより、クワッド上で実験により検証する。
論文 参考訳(メタデータ) (2022-03-29T12:21:28Z) - Learning Robust Output Control Barrier Functions from Safe Expert Demonstrations [50.37808220291108]
本稿では,専門家によるデモンストレーションの部分的な観察から,安全な出力フィードバック制御法を考察する。
まず,安全性を保証する手段として,ロバスト出力制御バリア関数(ROCBF)を提案する。
次に、安全なシステム動作を示す専門家による実証からROCBFを学習するための最適化問題を定式化する。
論文 参考訳(メタデータ) (2021-11-18T23:21:00Z) - Learning Control Barrier Functions from Expert Demonstrations [69.23675822701357]
制御障壁関数(CBF)に基づく安全な制御器合成のための学習に基づくアプローチを提案する。
最適化に基づくCBFの学習手法を解析し、基礎となる力学系のリプシッツ仮定の下で証明可能な安全保証を享受する。
私たちの知る限りでは、これらはデータから確実に安全な制御障壁関数を学習する最初の結果です。
論文 参考訳(メタデータ) (2020-04-07T12:29:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。