論文の概要: VeRecycle: Reclaiming Guarantees from Probabilistic Certificates for Stochastic Dynamical Systems after Change
- arxiv url: http://arxiv.org/abs/2505.14001v1
- Date: Tue, 20 May 2025 06:54:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:52.840463
- Title: VeRecycle: Reclaiming Guarantees from Probabilistic Certificates for Stochastic Dynamical Systems after Change
- Title(参考訳): Verecycle:変化後の確率力学系のための確率的証明書からの保証を回収する
- Authors: Sterre Lutz, Matthijs T. J. Spaan, Anna Lukina,
- Abstract要約: 確率論的神経リプノフ認証は非線形力学系の安全性を証明する強力な手法である。
VeRecycleは、離散時間力学系の保証を正式に再利用する最初のフレームワークである。
- 参考スコア(独自算出の注目度): 11.664652487964707
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous systems operating in the real world encounter a range of uncertainties. Probabilistic neural Lyapunov certification is a powerful approach to proving safety of nonlinear stochastic dynamical systems. When faced with changes beyond the modeled uncertainties, e.g., unidentified obstacles, probabilistic certificates must be transferred to the new system dynamics. However, even when the changes are localized in a known part of the state space, state-of-the-art requires complete re-certification, which is particularly costly for neural certificates. We introduce VeRecycle, the first framework to formally reclaim guarantees for discrete-time stochastic dynamical systems. VeRecycle efficiently reuses probabilistic certificates when the system dynamics deviate only in a given subset of states. We present a general theoretical justification and algorithmic implementation. Our experimental evaluation shows scenarios where VeRecycle both saves significant computational effort and achieves competitive probabilistic guarantees in compositional neural control.
- Abstract(参考訳): 現実世界で稼働する自律システムは、様々な不確実性に遭遇する。
確率論的神経リプノフ認証は非線形確率力学系の安全性を証明する強力な手法である。
モデル化された不確実性以外の変更に直面している場合、例えば、特定されていない障害に対して、確率的証明書を新しいシステムダイナミクスに転送する必要がある。
しかし、状態空間の既知の部分に変化が局所化されている場合でも、最先端技術は完全な再認証を必要とする。
本稿では,離散時間確率力学系の保証を正式に回収する最初のフレームワークであるVeRecycleを紹介する。
VeRecycleは、システムダイナミクスが与えられた状態のサブセットのみを逸脱した場合に、確率的証明書を効率的に再利用する。
本稿では,一般的な理論的正当化とアルゴリズム的実装を提案する。
実験により,VeRecycleが計算労力を大幅に削減し,構成型ニューラルコントロールにおける競合確率的保証を実現するシナリオが示された。
関連論文リスト
- Barrier Certificates for Unknown Systems with Latent States and Polynomial Dynamics using Bayesian Inference [3.0839725524711774]
本稿では,未知システムに対するバリア証明書の合成手法を提案する。
初期状態空間表現は、ターゲットとするメトロポリス・ハスティングスサンプリング器を介して入力出力データを用いて更新される。
候補が追加サンプルの試験セットの要求条件を満たすならば、真で未知のシステムに対して高い確率で有効であることを示す。
論文 参考訳(メタデータ) (2025-04-02T15:12:34Z) - Neural Continuous-Time Supermartingale Certificates [7.527234046228324]
本稿では,連続時間力学系のためのニューラルネットワークフレームワークを初めて紹介する。
決定論的連続時間システムのためのニューラルリアプノフ証明書のトレーニングの成功に触発されて、連続時間と確率論的ニューラル認定のギャップを埋める枠組みを提案する。
論文 参考訳(メタデータ) (2024-12-23T09:51:54Z) - Data-Driven Distributionally Robust Safety Verification Using Barrier Certificates and Conditional Mean Embeddings [0.24578723416255752]
問題を非現実的な仮定にシフトすることなく,スケーラブルな形式検証アルゴリズムを開発する。
問題を非現実的な仮定にシフトさせることなく,スケーラブルな形式検証アルゴリズムを開発するためには,バリア証明書の概念を用いる。
本稿では,2乗法最適化とガウス過程エンベロープを用いて効率よくプログラムを解く方法を示す。
論文 参考訳(メタデータ) (2024-03-15T17:32:02Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - The Unreasonable Effectiveness of Deep Evidential Regression [72.30888739450343]
不確実性を考慮した回帰ベースニューラルネットワーク(NN)による新しいアプローチは、従来の決定論的手法や典型的なベイズ的NNよりも有望であることを示している。
我々は、理論的欠点を詳述し、合成および実世界のデータセットのパフォーマンスを分析し、Deep Evidential Regressionが正確な不確実性ではなく定量化であることを示す。
論文 参考訳(メタデータ) (2022-05-20T10:10:32Z) - Adversarially Robust Stability Certificates can be Sample-Efficient [14.658040519472646]
未知の非線形力学系に対する逆向きに頑健な安定性証明について考察する。
敵安定証明書を学習する統計的コストは,定型的安定性証明書を学習するのと同程度であることを示す。
論文 参考訳(メタデータ) (2021-12-20T17:23:31Z) - Structure-Preserving Learning Using Gaussian Processes and Variational
Integrators [62.31425348954686]
本稿では,機械系の古典力学に対する変分積分器と,ガウス過程の回帰による残留力学の学習の組み合わせを提案する。
我々は、既知のキネマティック制約を持つシステムへのアプローチを拡張し、予測の不確実性に関する公式な境界を提供する。
論文 参考訳(メタデータ) (2021-12-10T11:09:29Z) - CC-Cert: A Probabilistic Approach to Certify General Robustness of
Neural Networks [58.29502185344086]
安全クリティカルな機械学習アプリケーションでは、モデルを敵の攻撃から守ることが不可欠である。
意味的に意味のある入力変換に対して、ディープラーニングモデルの証明可能な保証を提供することが重要である。
我々はChernoff-Cramer境界に基づく新しい普遍確率的証明手法を提案する。
論文 参考訳(メタデータ) (2021-09-22T12:46:04Z) - Probabilistic robust linear quadratic regulators with Gaussian processes [73.0364959221845]
ガウス過程(GP)のような確率モデルは、制御設計に続く使用のためのデータから未知の動的システムを学ぶための強力なツールです。
本稿では、確率的安定性マージンに関して堅牢なコントローラを生成する線形化GPダイナミクスのための新しいコントローラ合成について述べる。
論文 参考訳(メタデータ) (2021-05-17T08:36:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。