論文の概要: Real-Time Safe Control of Neural Network Dynamic Models with Sound Approximation
- arxiv url: http://arxiv.org/abs/2404.13456v2
- Date: Mon, 20 May 2024 21:57:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-22 18:02:40.414306
- Title: Real-Time Safe Control of Neural Network Dynamic Models with Sound Approximation
- Title(参考訳): 音響近似を用いたニューラルネットワーク動的モデルのリアルタイム安全制御
- Authors: Hanjiang Hu, Jianglin Lan, Changliu Liu,
- Abstract要約: 本稿では,ニューラル・ネットワーク・ダイナミック・モデル(NNDM)の音響近似を制御合成に用いることを提案する。
近似による誤差を軽減し、安全制御問題の持続可能性を確保する。
異なる神経力学と安全性の制約による実験では、安全が保証された場合、音近似のNNDMは安全制御ベースラインの10~100倍高速であることが示されている。
- 参考スコア(独自算出の注目度): 11.622680091231393
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Safe control of neural network dynamic models (NNDMs) is important to robotics and many applications. However, it remains challenging to compute an optimal safe control in real time for NNDM. To enable real-time computation, we propose to use a sound approximation of the NNDM in the control synthesis. In particular, we propose Bernstein over-approximated neural dynamics (BOND) based on the Bernstein polynomial over-approximation (BPO) of ReLU activation functions in NNDM. To mitigate the errors introduced by the approximation and to ensure persistent feasibility of the safe control problems, we synthesize a worst-case safety index using the most unsafe approximated state within the BPO relaxation of NNDM offline. For the online real-time optimization, we formulate the first-order Taylor approximation of the nonlinear worst-case safety constraint as an additional linear layer of NNDM with the l2 bounded bias term for the higher-order remainder. Comprehensive experiments with different neural dynamics and safety constraints show that with safety guaranteed, our NNDMs with sound approximation are 10-100 times faster than the safe control baseline that uses mixed integer programming (MIP), validating the effectiveness of the worst-case safety index and scalability of the proposed BOND in real-time large-scale settings. The code is available at https://github.com/intelligent-control-lab/BOND.
- Abstract(参考訳): ニューラルネットワークダイナミックモデル(NNDM)の安全な制御は、ロボット工学や多くの応用において重要である。
しかし、NNDMの最適安全制御をリアルタイムに計算することは依然として困難である。
実時間計算を実現するために,NNDMの音響近似を制御合成に用いることを提案する。
特に、NNDMにおけるReLU活性化関数のBernstein多項式オーバー近似(BPO)に基づくBernstein over-approximated Neural Dynamics(BOND)を提案する。
NNDMのBPO緩和における最も安全でない近似状態を用いて、近似による誤差を軽減し、安全制御問題の持続可能性を確保するために、最悪のケース安全性指標を合成する。
オンラインリアルタイム最適化では、非線形最悪の安全制約の1次テイラー近似を、高次残差の l2 境界バイアス項を付加した NNDM の線形層として定式化する。
異なるニューラルダイナミクスと安全性制約による総合的な実験により、音近似のNNDMは、MIP(Mixed integer Programming)を用いた安全な制御ベースラインよりも10~100倍高速で、最悪の安全指標の有効性と、提案したBONDのリアルタイム大規模設定におけるスケーラビリティが検証された。
コードはhttps://github.com/intelligent-control-lab/BOND.comで公開されている。
関連論文リスト
- Lyapunov-stable Neural Control for State and Output Feedback: A Novel Formulation [67.63756749551924]
学習ベースのニューラルネットワーク(NN)制御ポリシは、ロボット工学と制御の幅広いタスクにおいて、印象的な経験的パフォーマンスを示している。
非線形力学系を持つNNコントローラのトラクション領域(ROA)に対するリアプノフ安定性の保証は困難である。
我々は、高速な経験的ファルシフィケーションと戦略的正則化を用いて、Lyapunov証明書とともにNNコントローラを学習するための新しいフレームワークを実証する。
論文 参考訳(メタデータ) (2024-04-11T17:49:15Z) - Achieving Constraints in Neural Networks: A Stochastic Augmented
Lagrangian Approach [49.1574468325115]
DNN(Deep Neural Networks)の正規化は、一般化性の向上とオーバーフィッティングの防止に不可欠である。
制約付き最適化問題としてトレーニングプロセスのフレーミングによるDNN正規化に対する新しいアプローチを提案する。
我々はAugmented Lagrangian (SAL) 法を用いて、より柔軟で効率的な正規化機構を実現する。
論文 参考訳(メタデータ) (2023-10-25T13:55:35Z) - Probabilistic Reach-Avoid for Bayesian Neural Networks [71.67052234622781]
最適合成アルゴリズムは、証明された状態の数を4倍以上に増やすことができることを示す。
このアルゴリズムは、平均的な到達回避確率を3倍以上に向上させることができる。
論文 参考訳(メタデータ) (2023-10-03T10:52:21Z) - Safety Filter Design for Neural Network Systems via Convex Optimization [35.87465363928146]
ニューラルネットワーク(NN)システムの安全性を確保するために,凸最適化に依存する新しい安全フィルタを提案する。
非線形振り子システムにおいて,提案手法の有効性を数値的に示す。
論文 参考訳(メタデータ) (2023-08-16T01:30:13Z) - Approximate non-linear model predictive control with safety-augmented neural networks [7.670727843779155]
本稿では、ニューラルネットワーク(NN)によるモデル予測制御(MPC)制御の近似を行い、高速なオンライン評価を実現する。
我々は,近似不正確性にもかかわらず,収束性や制約満足度を決定論的に保証する安全性向上を提案する。
論文 参考訳(メタデータ) (2023-04-19T11:27:06Z) - Log Barriers for Safe Black-box Optimization with Application to Safe
Reinforcement Learning [72.97229770329214]
本稿では,学習時の安全性維持が不可欠である高次元非線形最適化問題に対する一般的なアプローチを提案する。
LBSGDと呼ばれるアプローチは、慎重に選択されたステップサイズで対数障壁近似を適用することに基づいている。
安全強化学習における政策課題の違反を最小限に抑えるためのアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-07-21T11:14:47Z) - FitAct: Error Resilient Deep Neural Networks via Fine-Grained
Post-Trainable Activation Functions [0.05249805590164901]
ディープニューラルネットワーク(DNN)は、パーソナルヘルスケアデバイスや自動運転車などの安全クリティカルなシステムにますます導入されている。
本稿では,DNNの微粒化後のアクティベーション機能を実装することで,DNNのエラーレジリエンスを高めるための低コストなアプローチであるFitActを提案する。
論文 参考訳(メタデータ) (2021-12-27T07:07:50Z) - Safe Control with Neural Network Dynamic Models [2.512827436728378]
ニューラルネットワーク動的モデル(NNDM)の安全制御法則を導出する最初の方法であるMIND-SISを提案する。
MIND-SISは前方不変性と有限収束を保証する。
MIND-SISがNNDMの安全かつ最適な制御を実現することは数値的に検証されている。
論文 参考訳(メタデータ) (2021-10-03T22:13:49Z) - Online Limited Memory Neural-Linear Bandits with Likelihood Matching [53.18698496031658]
本研究では,探索学習と表現学習の両方が重要な役割を果たす課題を解決するために,ニューラルネットワークの帯域について検討する。
破滅的な忘れ込みに対して耐性があり、完全にオンラインである可能性の高いマッチングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-07T14:19:07Z) - Chance-Constrained Control with Lexicographic Deep Reinforcement
Learning [77.34726150561087]
本稿では,レキシックなDeep Reinforcement Learning(DeepRL)に基づく確率制約マルコフ決定プロセスを提案する。
有名なDeepRLアルゴリズムDQNの辞書版も提案され、シミュレーションによって検証されている。
論文 参考訳(メタデータ) (2020-10-19T13:09:14Z) - Neural Contraction Metrics for Robust Estimation and Control: A Convex
Optimization Approach [6.646482960350819]
本稿では,ニューラル・コントラクト・メトリック(NCM)の概念を用いて,ロバストな非線形推定と制御のための新しいディープラーニングベースのフレームワークを提案する。
NCMは、最適な収縮距離を大域的に近似するために、ディープロング短期記憶リカレントニューラルネットワークを使用する。
そこで本稿では,NCMを用いた非線形システムの最適推定器と制御器の設計について述べる。
論文 参考訳(メタデータ) (2020-06-08T05:29:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。