論文の概要: Safety Verification of Neural Network Control Systems Using Guaranteed
Neural Network Model Reduction
- arxiv url: http://arxiv.org/abs/2301.07531v1
- Date: Tue, 17 Jan 2023 03:25:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-19 15:51:58.071254
- Title: Safety Verification of Neural Network Control Systems Using Guaranteed
Neural Network Model Reduction
- Title(参考訳): 保証ニューラルネットワークモデルを用いたニューラルネットワーク制御系の安全性検証
- Authors: Weiming Xiang and Zhongzhu Shao
- Abstract要約: モデル縮小精度の概念は、ニューラルネットワークの出力と縮小サイズバージョンの間の保証された距離を記述するために提案される。
モデル削減精度を正確に計算するために,到達可能性に基づくアルゴリズムを提案する。
元のシステムの到達可能な集合を計算するアルゴリズムが開発され、より計算効率のよい安全性検証プロセスをサポートすることができる。
- 参考スコア(独自算出の注目度): 3.0839245814393728
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper aims to enhance the computational efficiency of safety
verification of neural network control systems by developing a guaranteed
neural network model reduction method. First, a concept of model reduction
precision is proposed to describe the guaranteed distance between the outputs
of a neural network and its reduced-size version. A reachability-based
algorithm is proposed to accurately compute the model reduction precision.
Then, by substituting a reduced-size neural network controller into the
closed-loop system, an algorithm to compute the reachable set of the original
system is developed, which is able to support much more computationally
efficient safety verification processes. Finally, the developed methods are
applied to a case study of the Adaptive Cruise Control system with a neural
network controller, which is shown to significantly reduce the computational
time of safety verification and thus validate the effectiveness of the method.
- Abstract(参考訳): 本稿では,ニューラルネットワークモデル削減手法の開発により,ニューラルネットワーク制御システムの安全性検証の計算効率を向上させることを目的とする。
まず、ニューラルネットワークの出力と縮小サイズバージョンの間の保証された距離を記述するために、モデル縮小精度の概念を提案する。
モデルの精度を精度良く計算するために,到達性に基づくアルゴリズムを提案する。
次に、小型ニューラルネットワークコントローラをクローズドループシステムに置換することにより、元のシステムの到達可能な集合を計算するアルゴリズムを開発し、より計算効率のよい安全性検証プロセスを支援する。
最後に、ニューラルネットワークコントローラを用いた適応クルーズ制御システムのケーススタディに適用し、安全性検証の計算時間を著しく短縮し、本手法の有効性を検証した。
関連論文リスト
- Fully Automatic Neural Network Reduction for Formal Verification [8.017543518311196]
到達可能性解析を用いたニューラルネットワークの完全自動・音量低減手法を提案する。
音質は、低減されたネットワークの検証が元のネットワークの検証を必要とすることを保証します。
提案手法は, ニューロンの数を, 小さい外近似で, 元のニューロン数のごく一部に減らすことができることを示す。
論文 参考訳(メタデータ) (2023-05-03T07:13:47Z) - Guaranteed Quantization Error Computation for Neural Network Model
Compression [2.610470075814367]
ニューラルネットワークモデル圧縮技術は、産業システムの組み込みデバイス上でのディープニューラルネットワークの計算問題に対処することができる。
統合されたニューラルネットワークは、フィードフォワードニューラルネットワークとその量子化されたバージョンから構築され、2つのニューラルネットワーク間の正確な出力差を生成する。
論文 参考訳(メタデータ) (2023-04-26T20:21:54Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Can pruning improve certified robustness of neural networks? [106.03070538582222]
ニューラルネット・プルーニングはディープ・ニューラル・ネットワーク(NN)の実証的ロバスト性を向上させることができることを示す。
実験の結果,NNを適切に刈り取ることで,その精度を8.2%まで向上させることができることがわかった。
さらに,認証された宝くじの存在が,従来の密集モデルの標準および認証された堅牢な精度に一致することを観察する。
論文 参考訳(メタデータ) (2022-06-15T05:48:51Z) - Large-Scale Sequential Learning for Recommender and Engineering Systems [91.3755431537592]
本稿では,現在の状況に適応してパーソナライズされたランキングを提供する自動アルゴリズムの設計に焦点を当てる。
前者はSAROSと呼ばれる新しいアルゴリズムを提案し,インタラクションの順序を学習するためのフィードバックの種類を考慮に入れている。
提案手法は, 電力網の故障検出に対する初期アプローチと比較して, 統計的に有意な結果を示す。
論文 参考訳(メタデータ) (2022-05-13T21:09:41Z) - Scalable computation of prediction intervals for neural networks via
matrix sketching [79.44177623781043]
既存の不確実性推定アルゴリズムでは、モデルアーキテクチャとトレーニング手順を変更する必要がある。
本研究では、与えられたトレーニングされたニューラルネットワークに適用し、近似予測間隔を生成できる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-06T13:18:31Z) - Robust lEarned Shrinkage-Thresholding (REST): Robust unrolling for
sparse recover [87.28082715343896]
我々は、モデルミス特定を前進させるのに堅牢な逆問題を解決するためのディープニューラルネットワークについて検討する。
我々は,アルゴリズムの展開手法を根底にある回復問題のロバストバージョンに適用することにより,新しい堅牢なディープニューラルネットワークアーキテクチャを設計する。
提案したRESTネットワークは,圧縮センシングとレーダイメージングの両問題において,最先端のモデルベースおよびデータ駆動アルゴリズムを上回る性能を示す。
論文 参考訳(メタデータ) (2021-10-20T06:15:45Z) - Fast Falsification of Neural Networks using Property Directed Testing [0.1529342790344802]
本稿では,反例の探索を指示するニューラルネットワークの偽造アルゴリズムを提案する。
提案アルゴリズムは, 微分自由サンプリングに基づく最適化手法を用いる。
フェールシフィケーション手順は、他の検証ツールが安全でないと報告しているすべての安全でないインスタンスを検出する。
論文 参考訳(メタデータ) (2021-04-26T09:16:27Z) - Generating Probabilistic Safety Guarantees for Neural Network
Controllers [30.34898838361206]
ダイナミクスモデルを使用して、ニューラルネットワークコントローラが安全に動作するために保持する必要がある出力プロパティを決定します。
ニューラルネットワークポリシの近似を効率的に生成するための適応的検証手法を開発した。
本手法は,航空機衝突回避ニューラルネットワークの確率的安全性を保証することができることを示す。
論文 参考訳(メタデータ) (2021-03-01T18:48:21Z) - Towards Repairing Neural Networks Correctly [6.600380575920419]
本稿では,ニューラルネットワークの正確性を保証するための実行時検証手法を提案する。
実験結果から,本手法は特性を満たすことが保証されたニューラルネットワークを効果的に生成することが示された。
論文 参考訳(メタデータ) (2020-12-03T12:31:07Z) - Bayesian Optimization with Machine Learning Algorithms Towards Anomaly
Detection [66.05992706105224]
本稿では,ベイズ最適化手法を用いた効果的な異常検出フレームワークを提案する。
ISCX 2012データセットを用いて検討したアルゴリズムの性能を評価する。
実験結果から, 精度, 精度, 低コストアラームレート, リコールの観点から, 提案手法の有効性が示された。
論文 参考訳(メタデータ) (2020-08-05T19:29:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。