論文の概要: System-level Safety Guard: Safe Tracking Control through Uncertain
Neural Network Dynamics Models
- arxiv url: http://arxiv.org/abs/2312.06810v1
- Date: Mon, 11 Dec 2023 19:50:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-13 18:08:25.666832
- Title: System-level Safety Guard: Safe Tracking Control through Uncertain
Neural Network Dynamics Models
- Title(参考訳): システムレベルセーフティーガード:不確実性ニューラルネットワークダイナミクスモデルによる安全トラッキング制御
- Authors: Xiao Li, Yutong Li, Anouck Girard, Ilya Kolmanovsky
- Abstract要約: ニューラルネットワーク(NN)は多くの制御およびロボット工学の応用において検討されている。
本稿では,未知の力学系の軌道追跡の予測モデルとしてNNを利用する。
提案したMILPベースのソリューションは,システム全体の安全性を保証する。
- 参考スコア(独自算出の注目度): 8.915306227432648
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Neural Network (NN), as a black-box function approximator, has been
considered in many control and robotics applications. However, difficulties in
verifying the overall system safety in the presence of uncertainties hinder the
modular deployment of NN in safety-critical systems. In this paper, we leverage
the NNs as predictive models for trajectory tracking of unknown dynamical
systems. We consider controller design in the presence of both intrinsic
uncertainty and uncertainties from other system modules. In this setting, we
formulate the constrained trajectory tracking problem and show that it can be
solved using Mixed-integer Linear Programming (MILP). The proposed MILP-based
solution enjoys a provable safety guarantee for the overall system, and the
approach is empirically demonstrated in robot navigation and obstacle avoidance
through simulations. The demonstration videos are available at
https://xiaolisean.github.io/publication/2023-11-01-L4DC2024.
- Abstract(参考訳): ニューラルネットワーク(NN)はブラックボックス関数近似器として多くの制御やロボット工学の応用において検討されている。
しかしながら、不確実性の存在下でシステム全体の安全性を検証することの難しさは、安全クリティカルシステムにおけるnnのモジュール配置を妨げる。
本稿では,未知力学系の軌道追跡のための予測モデルとしてnnsを活用する。
我々は,本質的な不確実性と他のシステムモジュールからの不確実性の両方が存在する場合のコントローラ設計を考察する。
本稿では,制約付き軌道追跡問題を定式化し,MILP(Mixed-integer Linear Programming)を用いて解けることを示す。
提案したMILPベースのソリューションは,システム全体の安全性を保証し,シミュレーションによるロボットナビゲーションと障害物回避を実証的に実証する。
デモビデオはhttps://xiaolisean.github.io/publication/2023-11-01-L4DC2024で公開されている。
関連論文リスト
- Safety Filter Design for Neural Network Systems via Convex Optimization [35.87465363928146]
ニューラルネットワーク(NN)システムの安全性を確保するために,凸最適化に依存する新しい安全フィルタを提案する。
非線形振り子システムにおいて,提案手法の有効性を数値的に示す。
論文 参考訳(メタデータ) (2023-08-16T01:30:13Z) - In-Distribution Barrier Functions: Self-Supervised Policy Filters that
Avoid Out-of-Distribution States [84.24300005271185]
本稿では,任意の参照ポリシーをラップした制御フィルタを提案する。
本手法は、トップダウンとエゴセントリックの両方のビュー設定を含むシミュレーション環境における2つの異なるビズモータ制御タスクに有効である。
論文 参考訳(メタデータ) (2023-01-27T22:28:19Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - Statistical Safety and Robustness Guarantees for Feedback Motion
Planning of Unknown Underactuated Stochastic Systems [1.0323063834827415]
本研究では, 平均力学モデルを用いたサンプリングベースプランナを提案し, 学習外乱境界による閉ループ追従誤差を同時に有界化する。
この保証は,10次元四角形ロボットのシミュレーションや,クレージーフライ四角形ロボットとクリアパスジャカルロボットの現実世界でのシミュレーションにおいて,経験的安全性に変換されることを検証した。
論文 参考訳(メタデータ) (2022-12-13T19:38:39Z) - Backward Reachability Analysis of Neural Feedback Loops: Techniques for
Linear and Nonlinear Systems [59.57462129637796]
本稿では,ニューラルネットワークを用いた閉ループシステムの安全性検証のための後方到達性アプローチを提案する。
フィードバックループにおけるNNの存在は、その活性化関数の非線形性や、NNモデルは一般に可逆的ではないため、ユニークな問題セットを示す。
フィードフォワードNNで表される制御ポリシを持つ線形系と非線形系のBP過近似を計算するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-28T13:17:28Z) - Risk Verification of Stochastic Systems with Neural Network Controllers [0.0]
ニューラルネットワーク(NN)コントローラを用いた動的システムのリスク検証のための,データ駆動型フレームワークを提案する。
制御システム,NNコントローラ,トレースロバスト性の概念を備えた仕様が与えられた場合,システムからトラジェクトリを収集する。
NNコントローラが仕様を満たさないリスクを推定するために、これらのロバストネス値のリスクメトリクスを計算します。
論文 参考訳(メタデータ) (2022-08-26T20:09:55Z) - Recursively Feasible Probabilistic Safe Online Learning with Control
Barrier Functions [63.18590014127461]
本稿では,CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
本研究では,ロバストな安全クリティカルコントローラの実現可能性について検討する。
次に、これらの条件を使って、イベントトリガーによるオンラインデータ収集戦略を考案します。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Provably Safe Model-Based Meta Reinforcement Learning: An
Abstraction-Based Approach [3.569867801312134]
本研究では,不確実な非線形力学系に対して,確実に安全なニューラルネットワーク(NN)コントローラをトレーニングする問題を考察する。
私たちのアプローチは、トレーニングフェーズ中にNNコントローラのセットを学ぶことです。
タスクが実行時に利用可能になると、我々のフレームワークはこれらのNNコントローラのサブセットを慎重に選択し、最終的なNNコントローラを構成する。
論文 参考訳(メタデータ) (2021-09-03T00:38:05Z) - Formal Verification of Stochastic Systems with ReLU Neural Network
Controllers [22.68044012584378]
reluニューラルネットワーク(nn)コントローラを備えたサイバーフィジカルシステムの形式的安全性検証の問題に対処する。
私たちの目標は、所定の自信を持って、システムが安全でない構成に達しない初期状態のセットを見つけることです。
論文 参考訳(メタデータ) (2021-03-08T23:53:13Z) - Risk-Averse MPC via Visual-Inertial Input and Recurrent Networks for
Online Collision Avoidance [95.86944752753564]
本稿では,モデル予測制御(MPC)の定式化を拡張したオンライン経路計画アーキテクチャを提案する。
我々のアルゴリズムは、状態推定の共分散を推論するリカレントニューラルネットワーク(RNN)とオブジェクト検出パイプラインを組み合わせる。
本手法のロバスト性は, 複雑な四足歩行ロボットの力学で検証され, ほとんどのロボットプラットフォームに適用可能である。
論文 参考訳(メタデータ) (2020-07-28T07:34:30Z) - Chance-Constrained Trajectory Optimization for Safe Exploration and
Learning of Nonlinear Systems [81.7983463275447]
学習に基づく制御アルゴリズムは、訓練のための豊富な監督を伴うデータ収集を必要とする。
本稿では,機会制約付き最適制御と動的学習とフィードバック制御を統合した安全な探索による最適動作計画のための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-05-09T05:57:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。