論文の概要: DeepAbstract: Neural Network Abstraction for Accelerating Verification
- arxiv url: http://arxiv.org/abs/2006.13735v1
- Date: Wed, 24 Jun 2020 13:51:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 09:52:13.214716
- Title: DeepAbstract: Neural Network Abstraction for Accelerating Verification
- Title(参考訳): deepabstract: 検証を加速するニューラルネットワーク抽象化
- Authors: Pranav Ashok and Vahid Hashemi and Jan K\v{r}et\'insk\'y and Stefanie
Mohr
- Abstract要約: 入力に対して同じように振る舞うニューロンのクラスタリングに基づいて,完全接続型フィードフォワードニューラルネットワークに適用可能な抽象化フレームワークを提案する。
本稿では,ネットワークの精度を保ちながら,抽象化がネットワークのサイズを減らし,抽象ネットワーク上での検証結果を元のネットワークに戻す方法を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While abstraction is a classic tool of verification to scale it up, it is not
used very often for verifying neural networks. However, it can help with the
still open task of scaling existing algorithms to state-of-the-art network
architectures. We introduce an abstraction framework applicable to
fully-connected feed-forward neural networks based on clustering of neurons
that behave similarly on some inputs. For the particular case of ReLU, we
additionally provide error bounds incurred by the abstraction. We show how the
abstraction reduces the size of the network, while preserving its accuracy, and
how verification results on the abstract network can be transferred back to the
original network.
- Abstract(参考訳): 抽象化はそれをスケールアップするための古典的な検証ツールであるが、ニューラルネットワークの検証にはあまり使われていない。
しかし、既存のアルゴリズムを最先端のネットワークアーキテクチャにスケールするという、まだオープンなタスクに役立つ。
入力に対して同じように振る舞うニューロンのクラスタリングに基づいて,完全接続型フィードフォワードニューラルネットワークに適用可能な抽象化フレームワークを提案する。
ReLUの特定のケースでは、抽象化によって生じるエラー境界も提供します。
本稿では,ネットワークの精度を保ちながら,抽象化がネットワークのサイズを減らし,抽象ネットワーク上での検証結果を元のネットワークに戻す方法を示す。
関連論文リスト
- Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Fully Automatic Neural Network Reduction for Formal Verification [8.017543518311196]
到達可能性解析を用いたニューラルネットワークの完全自動・音量低減手法を提案する。
音質は、低減されたネットワークの検証が元のネットワークの検証を必要とすることを保証します。
提案手法は, ニューロンの数を, 小さい外近似で, 元のニューロン数のごく一部に減らすことができることを示す。
論文 参考訳(メタデータ) (2023-05-03T07:13:47Z) - Towards Global Neural Network Abstractions with Locally-Exact
Reconstruction [2.1915057426589746]
中心現実再構成(GINNACER)を用いたグローバルインターバルニューラルネットワーク抽象化を提案する。
我々の新しい抽象化技術は、任意の局所入力に対して正確な再構成を保証しつつ、入力領域全体の音響過度近似境界を生成する。
実験の結果,GINNACERは最先端のグローバル抽象技術よりも数桁厳密であり,局所的な抽象技術と競合していることがわかった。
論文 参考訳(メタデータ) (2022-10-21T15:48:22Z) - Neural Network Verification using Residual Reasoning [0.0]
本稿では,経験的推論を用いて,抽象化に基づくニューラルネットワークの検証の強化を提案する。
本質的には、精細化されたネットワークが正しく振る舞うことを保証された検索空間の一部に関する情報を、検証者が格納することができる。
論文 参考訳(メタデータ) (2022-08-05T10:39:04Z) - An Abstraction-Refinement Approach to Verifying Convolutional Neural
Networks [0.0]
本稿では,畳み込みネットワークの検証を目的としたCnn-Absフレームワークを提案する。
Cnn-Abs のコアは、検証問題を単純化する抽象化・リファインメント技術である。
Cnn-Absは最先端の検証エンジンの性能を大幅に向上させ、ランタイムを平均15.7%削減することができる。
論文 参考訳(メタデータ) (2022-01-06T08:57:43Z) - Why Lottery Ticket Wins? A Theoretical Perspective of Sample Complexity
on Pruned Neural Networks [79.74580058178594]
目的関数の幾何学的構造を解析することにより、刈り取られたニューラルネットワークを訓練する性能を解析する。
本稿では,ニューラルネットワークモデルがプルーニングされるにつれて,一般化が保証された望ましいモデル近傍の凸領域が大きくなることを示す。
論文 参考訳(メタデータ) (2021-10-12T01:11:07Z) - Mitigating Performance Saturation in Neural Marked Point Processes:
Architectures and Loss Functions [50.674773358075015]
本稿では,グラフ畳み込み層のみを利用するGCHPという単純なグラフベースのネットワーク構造を提案する。
我々は,GCHPがトレーニング時間を大幅に短縮し,時間間確率仮定による確率比損失がモデル性能を大幅に改善できることを示した。
論文 参考訳(メタデータ) (2021-07-07T16:59:14Z) - Implicit recurrent networks: A novel approach to stationary input
processing with recurrent neural networks in deep learning [0.0]
本研究では,ニューラルネットの新たな実装を深層学習に導入し,検証する。
繰り返しネットワークの暗黙的な実装にバックプロパゲーションアルゴリズムを実装するアルゴリズムを提案する。
シングルレイヤの暗黙的リカレントネットワークはXOR問題を解くことができ、一方、単調に活性化関数が増加するフィードフォワードネットワークは、このタスクで失敗する。
論文 参考訳(メタデータ) (2020-10-20T18:55:32Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - ESPN: Extremely Sparse Pruned Networks [50.436905934791035]
簡単な反復マスク探索法により,非常に深いネットワークの最先端の圧縮を実現することができることを示す。
本アルゴリズムは,シングルショット・ネットワーク・プルーニング法とロッテ・ティケット方式のハイブリッド・アプローチを示す。
論文 参考訳(メタデータ) (2020-06-28T23:09:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。