論文の概要: Kernel-Based Learning of Safety Barriers
- arxiv url: http://arxiv.org/abs/2601.12002v1
- Date: Sat, 17 Jan 2026 10:42:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.412606
- Title: Kernel-Based Learning of Safety Barriers
- Title(参考訳): カーネルによる安全バリアの学習
- Authors: Oliver Schön, Zhengang Zhong, Sadegh Soudjani,
- Abstract要約: 安全クリティカルなアプリケーションにおけるAIアルゴリズムの迅速な統合は、厳格な安全基準を満たす能力に対する懸念を高めている。
従来の安全検証ツールでは、AI駆動システムのブラックボックスの性質に苦戦している。
離散時間力学を用いたブラックボックスシステムの安全性検証と合成のためのデータ駆動方式を提案する。
- 参考スコア(独自算出の注目度): 0.9367224590861915
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The rapid integration of AI algorithms in safety-critical applications such as autonomous driving and healthcare is raising significant concerns about the ability to meet stringent safety standards. Traditional tools for formal safety verification struggle with the black-box nature of AI-driven systems and lack the flexibility needed to scale to the complexity of real-world applications. In this paper, we present a data-driven approach for safety verification and synthesis of black-box systems with discrete-time stochastic dynamics. We employ the concept of control barrier certificates, which can guarantee safety of the system, and learn the certificate directly from a set of system trajectories. We use conditional mean embeddings to embed data from the system into a reproducing kernel Hilbert space (RKHS) and construct an RKHS ambiguity set that can be inflated to robustify the result to out-of-distribution behavior. We provide the theoretical results on how to apply the approach to general classes of temporal logic specifications beyond safety. For the data-driven computation of safety barriers, we leverage a finite Fourier expansion to cast a typically intractable semi-infinite optimization problem as a linear program. The resulting spectral barrier allows us to leverage the fast Fourier transform to generate the relaxed problem efficiently, offering a scalable yet distributionally robust framework for verifying safety. Our work moves beyond restrictive assumptions on system dynamics and uncertainty, as demonstrated on two case studies including a black-box system with a neural network controller.
- Abstract(参考訳): 自動運転やヘルスケアといった安全クリティカルなアプリケーションへのAIアルゴリズムの迅速な統合は、厳格な安全基準を満たす能力に関する重要な懸念を提起している。
従来の安全検証ツールでは、AI駆動システムのブラックボックスの性質に苦慮し、現実世界のアプリケーションの複雑さにスケールするために必要な柔軟性が欠如している。
本稿では、離散時間確率力学を用いたブラックボックスシステムの安全性検証と合成のためのデータ駆動型アプローチを提案する。
我々は,システムの安全性を保証する制御バリア証明書という概念を採用し,システムトラジェクトリの集合から直接証明書を学習する。
我々は条件付き平均埋め込みを用いて、システムのデータを再生カーネルヒルベルト空間(RKHS)に埋め込み、その結果を分配外行動に強固にするために膨らませることができるRKHS曖昧性集合を構築する。
安全以上の時間論理仕様の一般的なクラスにアプローチを適用する方法に関する理論的結果を提供する。
データ駆動型安全障壁計算では、有限フーリエ展開を利用して、典型的には難解な半無限最適化問題を線形プログラムとして適用する。
その結果,高速フーリエ変換を利用して緩和された問題を効率的に生成し,安全性を検証するためのスケーラブルかつ分散的に堅牢なフレームワークを提供する。
我々の研究は、ニューラルネットワークコントローラを備えたブラックボックスシステムを含む2つのケーススタディで示されているように、システムのダイナミクスと不確実性に関する制限的な仮定を超えて進んでいる。
関連論文リスト
- LUCID: Learning-Enabled Uncertainty-Aware Certification of Stochastic Dynamical Systems [0.8574682463936006]
従来の形式的検証ツールは、不透明なブラックボックスAIコンポーネントと複雑なダイナミクスの両方を組み込んだシステムに直面したときに不足する。
我々は,ブラックボックス埋め込み動的システムの安全性を証明するための検証エンジンであるLUCIDを紹介する。
LUCIDは、このようなシステムの安全性を定量化する最初のツールである。
論文 参考訳(メタデータ) (2025-12-12T17:46:50Z) - Safely Learning Controlled Stochastic Dynamics [61.82896036131116]
システム力学の安全な探索と効率的な推定を可能にする手法を提案する。
学習後、学習モデルはシステムのダイナミクスの予測を可能にし、任意の制御の安全性検証を可能にする。
我々は、真の力学のソボレフ正則性を高めることにより、安全性と適応学習率の向上を理論的に保証する。
論文 参考訳(メタデータ) (2025-06-03T11:17:07Z) - Data-Driven Distributionally Robust Safety Verification Using Barrier Certificates and Conditional Mean Embeddings [0.24578723416255752]
問題を非現実的な仮定にシフトすることなく,スケーラブルな形式検証アルゴリズムを開発する。
問題を非現実的な仮定にシフトさせることなく,スケーラブルな形式検証アルゴリズムを開発するためには,バリア証明書の概念を用いる。
本稿では,2乗法最適化とガウス過程エンベロープを用いて効率よくプログラムを解く方法を示す。
論文 参考訳(メタデータ) (2024-03-15T17:32:02Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Log Barriers for Safe Black-box Optimization with Application to Safe
Reinforcement Learning [72.97229770329214]
本稿では,学習時の安全性維持が不可欠である高次元非線形最適化問題に対する一般的なアプローチを提案する。
LBSGDと呼ばれるアプローチは、慎重に選択されたステップサイズで対数障壁近似を適用することに基づいている。
安全強化学習における政策課題の違反を最小限に抑えるためのアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-07-21T11:14:47Z) - Safety Certification for Stochastic Systems via Neural Barrier Functions [3.7491936479803054]
バリア関数は、非線形システムに対する非自明な安全性証明を提供するために使用できる。
ニューラルネットワークとしてバリア関数をパラメータ化することにより、ニューラルネットワークの堅牢なトレーニングを成功させてバリア関数を見つけることができることを示す。
提案手法は,いくつかのケーススタディにおいて既存の手法よりも優れており,桁違いに大きい安全証明書を返却することが多い。
論文 参考訳(メタデータ) (2022-06-03T09:06:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。