論文の概要: Verification of Neural Networks: Enhancing Scalability through Pruning
- arxiv url: http://arxiv.org/abs/2003.07636v1
- Date: Tue, 17 Mar 2020 10:54:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 20:27:52.256899
- Title: Verification of Neural Networks: Enhancing Scalability through Pruning
- Title(参考訳): ニューラルネットワークの検証:プルーニングによるスケーラビリティの向上
- Authors: Dario Guidotti and Francesco Leofante and Luca Pulina and Armando
Tacchella
- Abstract要約: 我々は、最先端の検証ツールが実際に関心のあるニューラルネットワークを扱えるようにすることに重点を置いている。
本稿では,ネットワークプルーニングに基づく新しいトレーニングパイプラインを提案する。
プルーニングアルゴリズムと検証ツールのポートフォリオを用いた実験の結果、我々のアプローチが考慮すべきネットワークの種類に対して成功していることを示す。
- 参考スコア(独自算出の注目度): 15.62342143633075
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Verification of deep neural networks has witnessed a recent surge of
interest, fueled by success stories in diverse domains and by abreast concerns
about safety and security in envisaged applications. Complexity and sheer size
of such networks are challenging for automated formal verification techniques
which, on the other hand, could ease the adoption of deep networks in safety-
and security-critical contexts.
In this paper we focus on enabling state-of-the-art verification tools to
deal with neural networks of some practical interest. We propose a new training
pipeline based on network pruning with the goal of striking a balance between
maintaining accuracy and robustness while making the resulting networks
amenable to formal analysis. The results of our experiments with a portfolio of
pruning algorithms and verification tools show that our approach is successful
for the kind of networks we consider and for some combinations of pruning and
verification techniques, thus bringing deep neural networks closer to the reach
of formally-grounded methods.
- Abstract(参考訳): ディープニューラルネットワークの検証は、さまざまなドメインの成功事例や、想定されるアプリケーションの安全性とセキュリティに関する懸念から、近年の関心の高まりを目撃している。
このようなネットワークの複雑さと規模は、安全性とセキュリティクリティカルなコンテキストにおけるディープネットワークの採用を緩和する、自動形式検証技術にとって難しい。
本稿では,実利的なニューラルネットワークを扱うための最先端の検証ツールの実現に注目する。
本稿では,ネットワークプルーニングに基づく新たなトレーニングパイプラインを提案し,精度とロバストさのバランスを保ちつつ,結果のネットワークを形式解析に利用できるようにする。
プルーニングアルゴリズムと検証ツールのポートフォリオを用いた実験の結果、我々のアプローチは、我々が検討するネットワークの種類と、プルーニングと検証技術の組み合わせで成功しており、それによって深層ニューラルネットワークが正式な接地した手法の範囲に近づいたことが分かりました。
関連論文リスト
- Advancing Security in AI Systems: A Novel Approach to Detecting
Backdoors in Deep Neural Networks [3.489779105594534]
バックドアは、ディープニューラルネットワーク(DNN)上の悪意あるアクターと、データ処理のためのクラウドサービスによって悪用される。
提案手法は高度テンソル分解アルゴリズムを利用して,事前学習したDNNの重みを慎重に解析し,バックドアモデルとクリーンモデルとの区別を行う。
この進歩は、ネットワークシステムにおけるディープラーニングとAIのセキュリティを強化し、新興技術の脅威の進化に対して不可欠なサイバーセキュリティを提供する。
論文 参考訳(メタデータ) (2024-03-13T03:10:11Z) - Expediting Neural Network Verification via Network Reduction [4.8621567234713305]
本稿では,検証前の事前処理手法として,ネットワーク削減手法を提案する。
提案手法は、安定なReLUニューロンを除去し、それらをシーケンシャルなニューラルネットワークに変換することにより、ニューラルネットワークを削減する。
我々は、最先端の完全および不完全検証ツールの縮小手法をインスタンス化する。
論文 参考訳(メタデータ) (2023-08-07T06:23:24Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Neural Network Verification using Residual Reasoning [0.0]
本稿では,経験的推論を用いて,抽象化に基づくニューラルネットワークの検証の強化を提案する。
本質的には、精細化されたネットワークが正しく振る舞うことを保証された検索空間の一部に関する情報を、検証者が格納することができる。
論文 参考訳(メタデータ) (2022-08-05T10:39:04Z) - Adversarial Robustness of Deep Neural Networks: A Survey from a Formal
Verification Perspective [7.821877331499578]
悪意ある操作を受けた入力を扱う場合、ニューラルネットワークの信頼性を懸念する敵対的堅牢性は、セキュリティと機械学習において最もホットなトピックの1つである。
我々は、ニューラルネットワークの対向的堅牢性検証における既存の文献を調査し、機械学習、セキュリティ、ソフトウェアエンジニアリングドメインにわたる39の多様な研究成果を収集する。
我々は、このトピックを包括的に理解するために、形式的検証の観点から分類を提供する。
論文 参考訳(メタデータ) (2022-06-24T11:53:12Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - ESPN: Extremely Sparse Pruned Networks [50.436905934791035]
簡単な反復マスク探索法により,非常に深いネットワークの最先端の圧縮を実現することができることを示す。
本アルゴリズムは,シングルショット・ネットワーク・プルーニング法とロッテ・ティケット方式のハイブリッド・アプローチを示す。
論文 参考訳(メタデータ) (2020-06-28T23:09:27Z) - HYDRA: Pruning Adversarially Robust Neural Networks [58.061681100058316]
ディープラーニングは、敵対的攻撃に対する堅牢性の欠如と、大規模なニューラルネットワークサイズという、2つの大きな課題に直面している。
そこで本稿では,頑健なトレーニング目標を意識したプルーニング手法を提案し,トレーニング目標にプルーンへの接続を探索させる。
HYDRAと題する我々の手法は,最先端のベニグニグニグニグニグニとロバストな精度で圧縮されたネットワークを同時に実現できることを実証する。
論文 参考訳(メタデータ) (2020-02-24T19:54:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。