論文の概要: DeepAbstract: Neural Network Abstraction for Accelerating Verification
- arxiv url: http://arxiv.org/abs/2006.13735v1
- Date: Wed, 24 Jun 2020 13:51:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 09:52:13.214716
- Title: DeepAbstract: Neural Network Abstraction for Accelerating Verification
- Title(参考訳): deepabstract: 検証を加速するニューラルネットワーク抽象化
- Authors: Pranav Ashok and Vahid Hashemi and Jan K\v{r}et\'insk\'y and Stefanie
Mohr
- Abstract要約: 入力に対して同じように振る舞うニューロンのクラスタリングに基づいて,完全接続型フィードフォワードニューラルネットワークに適用可能な抽象化フレームワークを提案する。
本稿では,ネットワークの精度を保ちながら,抽象化がネットワークのサイズを減らし,抽象ネットワーク上での検証結果を元のネットワークに戻す方法を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While abstraction is a classic tool of verification to scale it up, it is not
used very often for verifying neural networks. However, it can help with the
still open task of scaling existing algorithms to state-of-the-art network
architectures. We introduce an abstraction framework applicable to
fully-connected feed-forward neural networks based on clustering of neurons
that behave similarly on some inputs. For the particular case of ReLU, we
additionally provide error bounds incurred by the abstraction. We show how the
abstraction reduces the size of the network, while preserving its accuracy, and
how verification results on the abstract network can be transferred back to the
original network.
- Abstract(参考訳): 抽象化はそれをスケールアップするための古典的な検証ツールであるが、ニューラルネットワークの検証にはあまり使われていない。
しかし、既存のアルゴリズムを最先端のネットワークアーキテクチャにスケールするという、まだオープンなタスクに役立つ。
入力に対して同じように振る舞うニューロンのクラスタリングに基づいて,完全接続型フィードフォワードニューラルネットワークに適用可能な抽象化フレームワークを提案する。
ReLUの特定のケースでは、抽象化によって生じるエラー境界も提供します。
本稿では,ネットワークの精度を保ちながら,抽象化がネットワークのサイズを減らし,抽象ネットワーク上での検証結果を元のネットワークに戻す方法を示す。
関連論文リスト
- Specification-Driven Neural Network Reduction for Scalable Formal
Verification [8.751383865142772]
本稿では,ネットワークの検証が元のネットワークの検証を意味することを確実にする,保守的なニューラルネットワーク削減手法を提案する。
評価の結果,本手法はニューロン数の5%未満までネットワークを縮小し,検証時間を短縮できることがわかった。
論文 参考訳(メタデータ) (2023-05-03T07:13:47Z) - Towards Global Neural Network Abstractions with Locally-Exact
Reconstruction [2.1915057426589746]
中心現実再構成(GINNACER)を用いたグローバルインターバルニューラルネットワーク抽象化を提案する。
我々の新しい抽象化技術は、任意の局所入力に対して正確な再構成を保証しつつ、入力領域全体の音響過度近似境界を生成する。
実験の結果,GINNACERは最先端のグローバル抽象技術よりも数桁厳密であり,局所的な抽象技術と競合していることがわかった。
論文 参考訳(メタデータ) (2022-10-21T15:48:22Z) - Neural Network Verification using Residual Reasoning [0.0]
本稿では,経験的推論を用いて,抽象化に基づくニューラルネットワークの検証の強化を提案する。
本質的には、精細化されたネットワークが正しく振る舞うことを保証された検索空間の一部に関する情報を、検証者が格納することができる。
論文 参考訳(メタデータ) (2022-08-05T10:39:04Z) - SAR Despeckling Using Overcomplete Convolutional Networks [53.99620005035804]
スペックルはSAR画像を劣化させるため、リモートセンシングにおいて重要な問題である。
近年の研究では、畳み込みニューラルネットワーク(CNN)が古典的解法よりも優れていることが示されている。
本研究は、受容場を制限することで低レベルの特徴を学習することに集中するために、過剰なCNNアーキテクチャを用いる。
本稿では,合成および実SAR画像の非特定化手法と比較して,提案手法により非特定化性能が向上することを示す。
論文 参考訳(メタデータ) (2022-05-31T15:55:37Z) - An Abstraction-Refinement Approach to Verifying Convolutional Neural
Networks [0.0]
本稿では,畳み込みネットワークの検証を目的としたCnn-Absフレームワークを提案する。
Cnn-Abs のコアは、検証問題を単純化する抽象化・リファインメント技術である。
Cnn-Absは最先端の検証エンジンの性能を大幅に向上させ、ランタイムを平均15.7%削減することができる。
論文 参考訳(メタデータ) (2022-01-06T08:57:43Z) - Why Lottery Ticket Wins? A Theoretical Perspective of Sample Complexity
on Pruned Neural Networks [79.74580058178594]
目的関数の幾何学的構造を解析することにより、刈り取られたニューラルネットワークを訓練する性能を解析する。
本稿では,ニューラルネットワークモデルがプルーニングされるにつれて,一般化が保証された望ましいモデル近傍の凸領域が大きくなることを示す。
論文 参考訳(メタデータ) (2021-10-12T01:11:07Z) - Mitigating Performance Saturation in Neural Marked Point Processes:
Architectures and Loss Functions [50.674773358075015]
本稿では,グラフ畳み込み層のみを利用するGCHPという単純なグラフベースのネットワーク構造を提案する。
我々は,GCHPがトレーニング時間を大幅に短縮し,時間間確率仮定による確率比損失がモデル性能を大幅に改善できることを示した。
論文 参考訳(メタデータ) (2021-07-07T16:59:14Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Implicit recurrent networks: A novel approach to stationary input
processing with recurrent neural networks in deep learning [0.0]
本研究では,ニューラルネットの新たな実装を深層学習に導入し,検証する。
繰り返しネットワークの暗黙的な実装にバックプロパゲーションアルゴリズムを実装するアルゴリズムを提案する。
シングルレイヤの暗黙的リカレントネットワークはXOR問題を解くことができ、一方、単調に活性化関数が増加するフィードフォワードネットワークは、このタスクで失敗する。
論文 参考訳(メタデータ) (2020-10-20T18:55:32Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - ESPN: Extremely Sparse Pruned Networks [50.436905934791035]
簡単な反復マスク探索法により,非常に深いネットワークの最先端の圧縮を実現することができることを示す。
本アルゴリズムは,シングルショット・ネットワーク・プルーニング法とロッテ・ティケット方式のハイブリッド・アプローチを示す。
論文 参考訳(メタデータ) (2020-06-28T23:09:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。