論文の概要: PEREGRiNN: Penalized-Relaxation Greedy Neural Network Verifier
- arxiv url: http://arxiv.org/abs/2006.10864v2
- Date: Sun, 18 Apr 2021 19:02:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 13:31:35.505396
- Title: PEREGRiNN: Penalized-Relaxation Greedy Neural Network Verifier
- Title(参考訳): PEREGRINN: ペナル化緩和グレディニューラルネットワーク検証器
- Authors: Haitham Khedr, James Ferlez, and Yasser Shoukry
- Abstract要約: 我々は、ReLU NNの最も一般的な安全仕様を正式に検証するための新しいアプローチを導入する。
我々は, 線形実現可能性チェッカーとしてだけでなく, 解法で許容される緩和量のペナルティ化の手段として, 凸解法を用いる。
- 参考スコア(独自算出の注目度): 1.1011268090482575
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural Networks (NNs) have increasingly apparent safety implications
commensurate with their proliferation in real-world applications: both
unanticipated as well as adversarial misclassifications can result in fatal
outcomes. As a consequence, techniques of formal verification have been
recognized as crucial to the design and deployment of safe NNs. In this paper,
we introduce a new approach to formally verify the most commonly considered
safety specifications for ReLU NNs -- i.e. polytopic specifications on the
input and output of the network. Like some other approaches, ours uses a
relaxed convex program to mitigate the combinatorial complexity of the problem.
However, unique in our approach is the way we use a convex solver not only as a
linear feasibility checker, but also as a means of penalizing the amount of
relaxation allowed in solutions. In particular, we encode each ReLU by means of
the usual linear constraints, and combine this with a convex objective function
that penalizes the discrepancy between the output of each neuron and its
relaxation. This convex function is further structured to force the largest
relaxations to appear closest to the input layer; this provides the further
benefit that the most problematic neurons are conditioned as early as possible,
when conditioning layer by layer. This paradigm can be leveraged to create a
verification algorithm that is not only faster in general than competing
approaches, but is also able to verify considerably more safety properties; we
evaluated PEREGRiNN on a standard MNIST robustness verification suite to
substantiate these claims.
- Abstract(参考訳): ニューラルネットワーク(NN)は、現実のアプリケーションにおけるそれらの増殖と相まって、ますます安全性に影響を及ぼす。
その結果,安全なNNの設計と展開には,形式的検証技術が不可欠であると認識されている。
本稿では,ReLU NNの最も一般的な安全仕様,すなわちネットワークの入出力に関するポリトピック仕様を正式に検証するための新しいアプローチを提案する。
他のいくつかのアプローチと同様に、当社は緩和された凸プログラムを使用して、問題の組合せ複雑性を軽減する。
しかし,このアプローチでは,線形実現性チェッカとしてだけでなく,解で許容される緩和量をペナライズする方法として,凸ソルバを用いる方法がユニークである。
特に、各reluを通常の線形制約により符号化し、これを各ニューロンの出力とその緩和の差をペナルティ化する凸目的関数と組み合わせる。
この凸関数はさらに、最も大きな緩和を入力層に最も近いように見えるように構成されている。
このパラダイムは、一般的に競合するアプローチよりも高速であるだけでなく、はるかに多くの安全性特性を検証できる検証アルゴリズムを作成するために利用することができる。
関連論文リスト
- Correctness Verification of Neural Networks Approximating Differential
Equations [0.0]
ニューラルネットワーク(NN)は部分微分方程式(PDE)の解を近似する
NNはシミュレーションソフトウェアツールの不可欠な部分となり、複雑な動的システムのシミュレーションを100回以上加速することができる。
この研究は、NN微分を有限差分近似として定義することにより、これらの関数の検証に対処する。
初めて、出力領域の事前知識のないNN関数のバウンダリング問題に取り組む。
論文 参考訳(メタデータ) (2024-02-12T12:55:35Z) - Tight Certified Robustness via Min-Max Representations of ReLU Neural
Networks [9.771011198361865]
制御システムにニューラルネットワークを確実に配置するには、厳格な堅牢性を保証する必要がある。
本稿では,ReLUニューラルネットワークの凸表現に対する強靭性証明を得る。
論文 参考訳(メタデータ) (2023-10-07T21:07:45Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - Semantic Strengthening of Neuro-Symbolic Learning [85.6195120593625]
ニューロシンボリックアプローチは一般に確率論的目的のファジィ近似を利用する。
トラクタブル回路において,これを効率的に計算する方法を示す。
我々は,Warcraftにおける最小コストパスの予測,最小コスト完全マッチングの予測,スドクパズルの解法という3つの課題に対して,アプローチを検証した。
論文 参考訳(メタデータ) (2023-02-28T00:04:22Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - Automated Repair of Neural Networks [0.26651200086513094]
安全でないNNの安全仕様を修復するためのフレームワークを提案する。
提案手法では,重み値のいくつかを修正して,新しい安全なNN表現を探索することができる。
我々は,提案するフレームワークが安全なNNを実現する能力を示す広範な実験を行った。
論文 参考訳(メタデータ) (2022-07-17T12:42:24Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Online Limited Memory Neural-Linear Bandits with Likelihood Matching [53.18698496031658]
本研究では,探索学習と表現学習の両方が重要な役割を果たす課題を解決するために,ニューラルネットワークの帯域について検討する。
破滅的な忘れ込みに対して耐性があり、完全にオンラインである可能性の高いマッチングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-07T14:19:07Z) - Global Optimization of Objective Functions Represented by ReLU Networks [77.55969359556032]
ニューラルネットワークは複雑で非敵対的な関数を学ぶことができ、安全クリティカルな文脈でそれらの正しい振る舞いを保証することは困難である。
ネットワーク内の障害を見つけるための多くのアプローチ(例えば、敵の例)があるが、これらは障害の欠如を保証できない。
本稿では,最適化プロセスを検証手順に統合し,本手法よりも優れた性能を実現する手法を提案する。
論文 参考訳(メタデータ) (2020-10-07T08:19:48Z) - Debona: Decoupled Boundary Network Analysis for Tighter Bounds and
Faster Adversarial Robustness Proofs [2.1320960069210484]
ニューラルネットワークは、安全クリティカルな現実世界のアプリケーションで一般的に使用される。
このような敵の例が存在しないこと、あるいは具体的な例を提供することは、安全なアプリケーションを保証するために不可欠である。
畳み込みネットワークにおける最大プーリング層上層と下層の境界の厳密な証明を行う。
論文 参考訳(メタデータ) (2020-06-16T10:00:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。