論文の概要: Safety Verification for Neural Networks Based on Set-boundary Analysis
- arxiv url: http://arxiv.org/abs/2210.04175v1
- Date: Sun, 9 Oct 2022 05:55:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 15:50:04.766835
- Title: Safety Verification for Neural Networks Based on Set-boundary Analysis
- Title(参考訳): 集合境界解析に基づくニューラルネットワークの安全性検証
- Authors: Zhen Liang, Dejin Ren, Wanwei Liu, Ji Wang, Wenjing Yang and Bai Xue
- Abstract要約: ニューラルネットワーク(NN)は、自動運転車のような安全クリティカルなシステムにますます適用されている。
本稿では, NNの安全性検証問題に対するトポロジ的視点から検討するための, 集合境界到達可能性法を提案する。
- 参考スコア(独自算出の注目度): 5.487915758677295
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks (NNs) are increasingly applied in safety-critical systems
such as autonomous vehicles. However, they are fragile and are often
ill-behaved. Consequently, their behaviors should undergo rigorous guarantees
before deployment in practice. In this paper we propose a set-boundary
reachability method to investigate the safety verification problem of NNs from
a topological perspective. Given an NN with an input set and a safe set, the
safety verification problem is to determine whether all outputs of the NN
resulting from the input set fall within the safe set. In our method, the
homeomorphism property of NNs is mainly exploited, which establishes a
relationship mapping boundaries to boundaries. The exploitation of this
property facilitates reachability computations via extracting subsets of the
input set rather than the entire input set, thus controlling the wrapping
effect in reachability analysis and facilitating the reduction of computation
burdens for safety verification. The homeomorphism property exists in some
widely used NNs such as invertible NNs. Notable representations are invertible
residual networks (i-ResNets) and Neural ordinary differential equations
(Neural ODEs). For these NNs, our set-boundary reachability method only needs
to perform reachability analysis on the boundary of the input set. For NNs
which do not feature this property with respect to the input set, we explore
subsets of the input set for establishing the local homeomorphism property, and
then abandon these subsets for reachability computations. Finally, some
examples demonstrate the performance of the proposed method.
- Abstract(参考訳): ニューラルネットワーク(NN)は、自動運転車のような安全クリティカルなシステムにますます適用されている。
しかし、それらは脆弱であり、しばしば悪用される。
したがって、彼らの振る舞いは、実際にデプロイする前に厳格な保証を受けるべきである。
本稿では, NNの安全性検証問題に対するトポロジ的視点から検討する, 集合境界到達可能性法を提案する。
入力セットと安全セットを有するNNが与えられた場合、安全検証問題は、入力セットから生じるNNの出力が安全セットに該当するかどうかを決定することである。
提案手法では, NNの同型性を主に利用し, 境界に対する関係写像境界を確立する。
この特性の活用により、入力セット全体ではなく、入力セットのサブセットを抽出し、到達可能性解析におけるラップ効果を制御し、安全性検証のための計算負担の軽減を容易にする。
この同型性は、可逆NNのような広く使われているNNにも存在している。
注目すべき表現は可逆残留ネットワーク(i-ResNets)とニューラル常微分方程式(Neural ODEs)である。
これらのnnでは、設定境界到達可能性法は入力集合の境界に対して到達可能性解析を行うだけでよい。
入力集合に関してこの性質を特徴としないNNに対して、局所同相性を確立するための入力集合の部分集合を探索し、到達可能性計算のためにこれらの部分集合を放棄する。
最後に,提案手法の性能を示す例を示す。
関連論文リスト
- Provably Safe Neural Network Controllers via Differential Dynamic Logic [2.416907802598482]
NNCS検証のための制御理論の再利用を可能にする最初の一般手法を提案する。
dLの安全な制御エンベロープに基づいて、NN検証によって証明されたNNの仕様を導出する。
本稿では,NNCS の無限時間安全に関する dL 証明によって,仕様に忠実な NNCS の証明が反映されていることを示す。
論文 参考訳(メタデータ) (2024-02-16T16:15:25Z) - Enumerating Safe Regions in Deep Neural Networks with Provable
Probabilistic Guarantees [86.1362094580439]
安全プロパティとDNNが与えられた場合、安全であるプロパティ入力領域のすべての領域の集合を列挙する。
この問題の #P-hardness のため,epsilon-ProVe と呼ばれる効率的な近似法を提案する。
提案手法は, 許容限界の統計的予測により得られた出力可到達集合の制御可能な過小評価を利用する。
論文 参考訳(メタデータ) (2023-08-18T22:30:35Z) - Scaling Model Checking for DNN Analysis via State-Space Reduction and
Input Segmentation (Extended Version) [12.272381003294026]
既存のフレームワークは、トレーニングされたNNに対して堅牢性と/または安全性を保証する。
我々は、広範囲のNNプロパティを分析するための最初のモデルチェックベースのフレームワークであるFANNetを提案した。
本研究は,形式的NN解析のスケーラビリティとタイミング効率を向上させるために,状態空間の削減と入力セグメント化手法を開発する。
論文 参考訳(メタデータ) (2023-06-29T22:18:07Z) - Verifying Safety of Neural Networks from Topological Perspectives [5.487915758677296]
ニューラルネットワーク(NN)は、自動運転車のような安全クリティカルなシステムにますます適用されている。
本稿では, NNの安全性検証問題に対するトポロジ的視点から検討するための, 集合境界到達可能性法を提案する。
論文 参考訳(メタデータ) (2023-06-27T12:02:25Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - Backward Reachability Analysis of Neural Feedback Loops: Techniques for
Linear and Nonlinear Systems [59.57462129637796]
本稿では,ニューラルネットワークを用いた閉ループシステムの安全性検証のための後方到達性アプローチを提案する。
フィードバックループにおけるNNの存在は、その活性化関数の非線形性や、NNモデルは一般に可逆的ではないため、ユニークな問題セットを示す。
フィードフォワードNNで表される制御ポリシを持つ線形系と非線形系のBP過近似を計算するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-28T13:17:28Z) - Backward Reachability Analysis for Neural Feedback Loops [40.989393438716476]
本稿では,ニューラルネットワークを用いた閉ループシステムの安全性検証のための後方到達性アプローチを提案する。
フィードバックループにおけるNNの存在は、その活性化関数の非線形性や、NNモデルは一般に可逆的ではないため、ユニークな問題セットを示す。
本稿では,BP設定した推定値を所定の時間軸上で反復的に求めるアルゴリズムを提案し,計算コストを低くすることで,保守性を最大88%削減できることを示す。
論文 参考訳(メタデータ) (2022-04-14T01:13:14Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Robustness Analysis of Neural Networks via Efficient Partitioning with
Applications in Control Systems [45.35808135708894]
ニューラルネットワーク(NN)は現在、不確実な環境で動作しなければならないシステムに定期的に実装されている。
本稿では、ロバストネス解析アルゴリズムのファミリを提供するために、伝播と分割のアプローチを統合する。
新しいパーティショニング技術は、現在の境界推定値と望ましい境界形状を認識している。
論文 参考訳(メタデータ) (2020-10-01T16:51:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。