論文の概要: Safety Verification of Neural Network Controlled Systems
- arxiv url: http://arxiv.org/abs/2011.05174v1
- Date: Tue, 10 Nov 2020 15:26:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 07:32:31.238502
- Title: Safety Verification of Neural Network Controlled Systems
- Title(参考訳): ニューラルネットワーク制御システムの安全性検証
- Authors: Arthur Clavi\`ere, Eric Asselin, Christophe Garion (ISAE-SUPAERO),
Claire Pagetti (ANITI)
- Abstract要約: 本稿では,ニューラルネットワーク制御システムの安全性を検証するためのシステムレベルのアプローチを提案する。
単純な動作と複雑な動作の両方をキャプチャできるコントローラのジェネリックモデルを想定します。
我々は,システム全体の到達可能な状態を正確に近似する到達可能性解析を行う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a system-level approach for verifying the safety of
neural network controlled systems, combining a continuous-time physical system
with a discrete-time neural network based controller. We assume a generic model
for the controller that can capture both simple and complex behaviours
involving neural networks. Based on this model, we perform a reachability
analysis that soundly approximates the reachable states of the overall system,
allowing to achieve a formal proof of safety. To this end, we leverage both
validated simulation to approximate the behaviour of the physical system and
abstract interpretation to approximate the behaviour of the controller. We
evaluate the applicability of our approach using a real-world use case.
Moreover, we show that our approach can provide valuable information when the
system cannot be proved totally safe.
- Abstract(参考訳): 本稿では,連続時間物理システムと離散時間ニューラルネットワークベースのコントローラを組み合わせることで,ニューラルネットワーク制御システムの安全性を検証するシステムレベルアプローチを提案する。
ニューラルネットワークを含む単純かつ複雑な動作をキャプチャできるコントローラの汎用モデルが想定されている。
このモデルに基づいて,システム全体の到達可能な状態を的確に近似した到達可能性解析を行い,安全性の正式な証明を実現する。
この目的のために、検証されたシミュレーションを用いて物理系の挙動を近似し、抽象的な解釈を行い、コントローラの挙動を近似する。
本手法の適用性は実世界のユースケースを用いて評価する。
また,本手法では,システムが完全に安全であることを証明できない場合に,貴重な情報を提供できることを示す。
関連論文リスト
- Verification of Neural Network Control Systems in Continuous Time [1.5695847325697108]
本研究では,連続的なニューラルネットワーク制御系に対する最初の検証手法を開発した。
ニューラルネットワークコントローラをモデル化するための抽象化レベルを追加することで、これを実現する。
視覚に基づく自律型飛行機タクシーシステムに適用することで,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-05-31T19:39:48Z) - Distributionally Robust Statistical Verification with Imprecise Neural
Networks [4.094049541486327]
AI安全性における特に困難な問題は、高次元自律システムの振る舞いを保証することだ。
本稿では,アクティブラーニング,不確実性定量化,ニューラルネットワーク検証を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-28T18:06:24Z) - ConCerNet: A Contrastive Learning Based Framework for Automated
Conservation Law Discovery and Trustworthy Dynamical System Prediction [82.81767856234956]
本稿では,DNNに基づく動的モデリングの信頼性を向上させるために,ConCerNetという新しい学習フレームワークを提案する。
本手法は, 座標誤差と保存量の両方において, ベースラインニューラルネットワークよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-02-11T21:07:30Z) - In-Distribution Barrier Functions: Self-Supervised Policy Filters that
Avoid Out-of-Distribution States [84.24300005271185]
本稿では,任意の参照ポリシーをラップした制御フィルタを提案する。
本手法は、トップダウンとエゴセントリックの両方のビュー設定を含むシミュレーション環境における2つの異なるビズモータ制御タスクに有効である。
論文 参考訳(メタデータ) (2023-01-27T22:28:19Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Controllability of Coarsely Measured Networked Linear Dynamical Systems
(Extended Version) [19.303541162361746]
ネットワーク構造の完全な知識が得られない場合,大規模線形ネットワーク力学系の制御性を考える。
本研究では,(合成, 縮小)粗大系の平均制御可能性によって, 微細系の平均制御性をよく近似できる条件を提案する。
論文 参考訳(メタデータ) (2022-06-21T17:50:09Z) - Sparsity in Partially Controllable Linear Systems [56.142264865866636]
本研究では, 部分制御可能な線形力学系について, 基礎となる空間パターンを用いて検討する。
最適制御には無関係な状態変数を特徴付ける。
論文 参考訳(メタデータ) (2021-10-12T16:41:47Z) - Formal Verification of Stochastic Systems with ReLU Neural Network
Controllers [22.68044012584378]
reluニューラルネットワーク(nn)コントローラを備えたサイバーフィジカルシステムの形式的安全性検証の問題に対処する。
私たちの目標は、所定の自信を持って、システムが安全でない構成に達しない初期状態のセットを見つけることです。
論文 参考訳(メタデータ) (2021-03-08T23:53:13Z) - Generating Probabilistic Safety Guarantees for Neural Network
Controllers [30.34898838361206]
ダイナミクスモデルを使用して、ニューラルネットワークコントローラが安全に動作するために保持する必要がある出力プロパティを決定します。
ニューラルネットワークポリシの近似を効率的に生成するための適応的検証手法を開発した。
本手法は,航空機衝突回避ニューラルネットワークの確率的安全性を保証することができることを示す。
論文 参考訳(メタデータ) (2021-03-01T18:48:21Z) - Firearm Detection and Segmentation Using an Ensemble of Semantic Neural
Networks [62.997667081978825]
本稿では,意味的畳み込みニューラルネットワークのアンサンブルに基づく兵器検出システムを提案する。
特定のタスクに特化した単純なニューラルネットワークのセットは、計算リソースを少なくし、並列にトレーニングすることができる。
個々のネットワークの出力の集約によって与えられるシステムの全体的な出力は、ユーザが偽陽性と偽陰性とをトレードオフするように調整することができる。
論文 参考訳(メタデータ) (2020-02-11T13:58:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。