論文の概要: Safe Control with Neural Network Dynamic Models
- arxiv url: http://arxiv.org/abs/2110.01110v1
- Date: Sun, 3 Oct 2021 22:13:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-06 02:29:24.994063
- Title: Safe Control with Neural Network Dynamic Models
- Title(参考訳): ニューラルネットワーク動的モデルによる安全制御
- Authors: Tianhao Wei and Changliu Liu
- Abstract要約: ニューラルネットワーク動的モデル(NNDM)の安全制御法則を導出する最初の方法であるMIND-SISを提案する。
MIND-SISは前方不変性と有限収束を保証する。
MIND-SISがNNDMの安全かつ最適な制御を実現することは数値的に検証されている。
- 参考スコア(独自算出の注目度): 2.512827436728378
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Safety is critical in autonomous robotic systems. A safe control law ensures
forward invariance of a safe set (a subset in the state space). It has been
extensively studied regarding how to derive a safe control law with a
control-affine analytical dynamic model. However, in complex environments and
tasks, it is challenging and time-consuming to obtain a principled analytical
model of the system. In these situations, data-driven learning is extensively
used and the learned models are encoded in neural networks. How to formally
derive a safe control law with Neural Network Dynamic Models (NNDM) remains
unclear due to the lack of computationally tractable methods to deal with these
black-box functions. In fact, even finding the control that minimizes an
objective for NNDM without any safety constraint is still challenging. In this
work, we propose MIND-SIS (Mixed Integer for Neural network Dynamic model with
Safety Index Synthesis), the first method to derive safe control laws for NNDM.
The method includes two parts: 1) SIS: an algorithm for the offline synthesis
of the safety index (also called as barrier function), which uses evolutionary
methods and 2) MIND: an algorithm for online computation of the optimal and
safe control signal, which solves a constrained optimization using a
computationally efficient encoding of neural networks. It has been
theoretically proved that MIND-SIS guarantees forward invariance and finite
convergence. And it has been numerically validated that MIND-SIS achieves safe
and optimal control of NNDM. From our experiments, the optimality gap is less
than $10^{-8}$, and the safety constraint violation is $0$.
- Abstract(参考訳): 自律ロボットシステムでは安全が重要である。
安全な制御法は、安全な集合(状態空間の部分集合)の前方不変性を保証する。
制御-ファイン解析力学モデルを用いて安全な制御法則を導出する方法について、広く研究されている。
しかし、複雑な環境やタスクでは、システムの原理的な分析モデルを得ることは困難で時間がかかります。
このような状況では、データ駆動学習が広く使われ、学習されたモデルはニューラルネットワークにエンコードされる。
ニューラル・ネットワーク・ダイナミック・モデル(nndm)を用いた安全な制御則を形式的に導出する方法は、これらのブラックボックス関数を扱う計算的に扱いやすい方法が欠如しているため、まだ不明である。
実際、安全上の制約なしにNNDMの目的を最小化するコントロールを見つけることは、まだ難しい。
本研究では,nndmの安全制御則を導出する最初の手法であるmind-sis (mixed integer for neural network dynamic model with safety index synthesis)を提案する。
この方法は2つの部分を含む。
1) sis: 進化的手法を用いた安全指数(バリア関数とも呼ばれる)のオフライン合成のためのアルゴリズム
2) MIND: 最適かつ安全な制御信号のオンライン計算アルゴリズムで, 計算効率のよいニューラルネットワーク符号化を用いて, 制約付き最適化を解く。
MIND-SISが前方不変性と有限収束を保証することが理論的に証明されている。
また,MIND-SISがNNDMの安全かつ最適な制御を実現することを数値的に検証した。
私たちの実験では、最適性ギャップは10^{-8}$未満で、安全性制約違反は0$です。
関連論文リスト
- Convex neural network synthesis for robustness in the 1-norm [0.0]
本稿では,より堅牢なニューラルネットワークの近似を生成する手法を提案する。
モデル予測制御の堅牢化への応用は、その結果を示すために用いられる。
論文 参考訳(メタデータ) (2024-05-29T12:17:09Z) - Real-Time Safe Control of Neural Network Dynamic Models with Sound Approximation [11.622680091231393]
本稿では,ニューラル・ネットワーク・ダイナミック・モデル(NNDM)の音響近似を制御合成に用いることを提案する。
近似による誤差を軽減し、安全制御問題の持続可能性を確保する。
異なる神経力学と安全性の制約による実験では、安全が保証された場合、音近似のNNDMは安全制御ベースラインの10~100倍高速であることが示されている。
論文 参考訳(メタデータ) (2024-04-20T19:51:29Z) - System-level Safety Guard: Safe Tracking Control through Uncertain Neural Network Dynamics Models [8.16100000885664]
ニューラルネットワーク(NN)は多くの制御およびロボット工学の応用において検討されている。
本稿では,未知の力学系の軌道追跡の予測モデルとしてNNを利用する。
提案手法は,ロボットナビゲーションや障害物回避シミュレーションにおいて実証的に実証されている。
論文 参考訳(メタデータ) (2023-12-11T19:50:51Z) - Probabilistic Reach-Avoid for Bayesian Neural Networks [71.67052234622781]
最適合成アルゴリズムは、証明された状態の数を4倍以上に増やすことができることを示す。
このアルゴリズムは、平均的な到達回避確率を3倍以上に向上させることができる。
論文 参考訳(メタデータ) (2023-10-03T10:52:21Z) - ConCerNet: A Contrastive Learning Based Framework for Automated
Conservation Law Discovery and Trustworthy Dynamical System Prediction [82.81767856234956]
本稿では,DNNに基づく動的モデリングの信頼性を向上させるために,ConCerNetという新しい学習フレームワークを提案する。
本手法は, 座標誤差と保存量の両方において, ベースラインニューラルネットワークよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-02-11T21:07:30Z) - Neural Abstractions [72.42530499990028]
本稿では,ニューラルネットワークを用いた非線形力学モデルの安全性検証手法を提案する。
提案手法は,既存のベンチマーク非線形モデルにおいて,成熟度の高いFlow*と同等に動作することを示す。
論文 参考訳(メタデータ) (2023-01-27T12:38:09Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - Model-Based Safe Policy Search from Signal Temporal Logic Specifications
Using Recurrent Neural Networks [1.005130974691351]
本稿では,STL (Signal Temporal Logic) の仕様からコントローラを学習するためのポリシー探索手法を提案する。
システムモデルは未知であり、制御ポリシとともに学習される。
その結果,本手法は非常に少ないシステム実行で所定の仕様を満たせることが明らかとなり,オンライン制御に活用できる可能性が示唆された。
論文 参考訳(メタデータ) (2021-03-29T20:21:55Z) - Generating Probabilistic Safety Guarantees for Neural Network
Controllers [30.34898838361206]
ダイナミクスモデルを使用して、ニューラルネットワークコントローラが安全に動作するために保持する必要がある出力プロパティを決定します。
ニューラルネットワークポリシの近似を効率的に生成するための適応的検証手法を開発した。
本手法は,航空機衝突回避ニューラルネットワークの確率的安全性を保証することができることを示す。
論文 参考訳(メタデータ) (2021-03-01T18:48:21Z) - Chance-Constrained Trajectory Optimization for Safe Exploration and
Learning of Nonlinear Systems [81.7983463275447]
学習に基づく制御アルゴリズムは、訓練のための豊富な監督を伴うデータ収集を必要とする。
本稿では,機会制約付き最適制御と動的学習とフィードバック制御を統合した安全な探索による最適動作計画のための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-05-09T05:57:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。