論文の概要: Neural Network Verification using Residual Reasoning
- arxiv url: http://arxiv.org/abs/2208.03083v1
- Date: Fri, 5 Aug 2022 10:39:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-08 12:16:47.597914
- Title: Neural Network Verification using Residual Reasoning
- Title(参考訳): 残響推論を用いたニューラルネットワークの検証
- Authors: Yizhak Yisrael Elboher, Elazar Cohen, Guy Katz
- Abstract要約: 本稿では,経験的推論を用いて,抽象化に基づくニューラルネットワークの検証の強化を提案する。
本質的には、精細化されたネットワークが正しく振る舞うことを保証された検索空間の一部に関する情報を、検証者が格納することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the increasing integration of neural networks as components in
mission-critical systems, there is an increasing need to ensure that
they satisfy various safety and liveness requirements. In recent
years, numerous sound and complete verification methods have been
proposed towards that end, but these typically suffer from severe
scalability limitations. Recent work has proposed enhancing such
verification techniques with abstraction-refinement capabilities,
which have been shown to boost scalability: instead of verifying a
large and complex network, the verifier constructs and then verifies
a much smaller network, whose correctness implies the correctness of
the original network. A shortcoming of such a scheme is that if
verifying the smaller network fails, the verifier needs to perform a
refinement step that increases the size of the network being
verified, and then start verifying the new network from scratch --
effectively ``wasting'' its earlier work on verifying the smaller
network. In this paper, we present an enhancement to
abstraction-based verification of neural networks, by using
\emph{residual reasoning}: the process of utilizing information
acquired when verifying an abstract network, in order to expedite
the verification of a refined network. In essence, the method allows
the verifier to store information about parts of the search space in
which the refined network is guaranteed to behave correctly, and
allows it to focus on areas where bugs might be discovered. We
implemented our approach as an extension to the Marabou verifier,
and obtained promising results.
- Abstract(参考訳): ミッションクリティカルなシステムのコンポーネントとしてニューラルネットワークが統合されることで、さまざまな安全性と生存性要件を満足させる必要性が高まっている。
近年,多くの音響・完全検証手法が提案されているが,拡張性に厳しい制約があるのが一般的である。
大規模で複雑なネットワークを検証する代わりに、検証器はより小さなネットワークを構成し、その正しさは元のネットワークの正しさを意味する。
このようなスキームの欠点は、より小さなネットワークの検証が失敗した場合、検証者は、検証対象ネットワークのサイズを増大させる改善ステップを実行し、その後、より小さなネットワークの検証に関する初期の作業である「事実上」新しいネットワークのスクラッチから検証を開始する必要があることである。
本稿では,抽象的ネットワークの検証を行う際に取得した情報を活用する手法である \emph{residual reasoning} を用いて,ニューラルネットワークの抽象的検証の強化を行い,改良されたネットワークの検証を迅速化する。
本手法は,改良されたネットワークが正常に動作することを保証した検索空間の一部に関する情報を検証者が格納し,バグが発見される可能性のある領域に集中できるようにする。
提案手法をマラブー検証器の拡張として実装し,有望な結果を得た。
関連論文リスト
- Expediting Neural Network Verification via Network Reduction [4.8621567234713305]
本稿では,検証前の事前処理手法として,ネットワーク削減手法を提案する。
提案手法は、安定なReLUニューロンを除去し、それらをシーケンシャルなニューラルネットワークに変換することにより、ニューラルネットワークを削減する。
我々は、最先端の完全および不完全検証ツールの縮小手法をインスタンス化する。
論文 参考訳(メタデータ) (2023-08-07T06:23:24Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - An Abstraction-Refinement Approach to Verifying Convolutional Neural
Networks [0.0]
本稿では,畳み込みネットワークの検証を目的としたCnn-Absフレームワークを提案する。
Cnn-Abs のコアは、検証問題を単純化する抽象化・リファインメント技術である。
Cnn-Absは最先端の検証エンジンの性能を大幅に向上させ、ランタイムを平均15.7%削減することができる。
論文 参考訳(メタデータ) (2022-01-06T08:57:43Z) - Online Verification of Deep Neural Networks under Domain or Weight Shift [2.512827436728378]
既存の検証方法は、比較的単純な仕様と固定されたネットワークに限られている。
本稿では,ディープニューラルネットワークのオンライン検証を高速化する3種類の手法を提案する。
実験の結果,我々のオンライン検証アルゴリズムは,既存の検証アルゴリズムよりも最大2桁高速であることがわかった。
論文 参考訳(メタデータ) (2021-06-24T02:38:27Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Scalable Verification of Quantized Neural Networks (Technical Report) [14.04927063847749]
ビットベクトル仕様を持つ量子化ニューラルネットワークのビットエクササイズ実装はPSPACEハードであることを示す。
量子化されたニューラルネットワークのSMTに基づく検証をよりスケーラブルにするための3つの手法を提案する。
論文 参考訳(メタデータ) (2020-12-15T10:05:37Z) - Enabling certification of verification-agnostic networks via
memory-efficient semidefinite programming [97.40955121478716]
本稿では,ネットワークアクティベーションの総数にのみ線形なメモリを必要とする一階二重SDPアルゴリズムを提案する。
L-inf の精度は 1% から 88% ,6% から 40% に改善した。
また,変分オートエンコーダの復号器に対する2次安定性仕様の厳密な検証を行った。
論文 参考訳(メタデータ) (2020-10-22T12:32:29Z) - ESPN: Extremely Sparse Pruned Networks [50.436905934791035]
簡単な反復マスク探索法により,非常に深いネットワークの最先端の圧縮を実現することができることを示す。
本アルゴリズムは,シングルショット・ネットワーク・プルーニング法とロッテ・ティケット方式のハイブリッド・アプローチを示す。
論文 参考訳(メタデータ) (2020-06-28T23:09:27Z) - Network Adjustment: Channel Search Guided by FLOPs Utilization Ratio [101.84651388520584]
本稿では,ネットワークの精度をFLOPの関数として考慮した,ネットワーク調整という新しいフレームワークを提案する。
標準画像分類データセットと幅広いベースネットワークの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-04-06T15:51:00Z) - Verification of Neural Networks: Enhancing Scalability through Pruning [15.62342143633075]
我々は、最先端の検証ツールが実際に関心のあるニューラルネットワークを扱えるようにすることに重点を置いている。
本稿では,ネットワークプルーニングに基づく新しいトレーニングパイプラインを提案する。
プルーニングアルゴリズムと検証ツールのポートフォリオを用いた実験の結果、我々のアプローチが考慮すべきネットワークの種類に対して成功していることを示す。
論文 参考訳(メタデータ) (2020-03-17T10:54:08Z) - Resolution Adaptive Networks for Efficient Inference [53.04907454606711]
本稿では,低分解能表現が「容易」な入力を分類するのに十分である,という直感に触発された新しいレゾリューション適応ネットワーク(RANet)を提案する。
RANetでは、入力画像はまず、低解像度表現を効率的に抽出する軽量サブネットワークにルーティングされる。
ネットワーク内の高解像度パスは、"ハード"サンプルを認識する能力を維持している。
論文 参考訳(メタデータ) (2020-03-16T16:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。