論文の概要: An Abstraction-Refinement Approach to Verifying Convolutional Neural
Networks
- arxiv url: http://arxiv.org/abs/2201.01978v1
- Date: Thu, 6 Jan 2022 08:57:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-07 14:36:47.034363
- Title: An Abstraction-Refinement Approach to Verifying Convolutional Neural
Networks
- Title(参考訳): 畳み込みニューラルネットワークの抽象的再定義法
- Authors: Matan Ostrovsky and Clark Barrett and Guy Katz
- Abstract要約: 本稿では,畳み込みネットワークの検証を目的としたCnn-Absフレームワークを提案する。
Cnn-Abs のコアは、検証問題を単純化する抽象化・リファインメント技術である。
Cnn-Absは最先端の検証エンジンの性能を大幅に向上させ、ランタイムを平均15.7%削減することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional neural networks have gained vast popularity due to their
excellent performance in the fields of computer vision, image processing, and
others. Unfortunately, it is now well known that convolutional networks often
produce erroneous results - for example, minor perturbations of the inputs of
these networks can result in severe classification errors. Numerous
verification approaches have been proposed in recent years to prove the absence
of such errors, but these are typically geared for fully connected networks and
suffer from exacerbated scalability issues when applied to convolutional
networks. To address this gap, we present here the Cnn-Abs framework, which is
particularly aimed at the verification of convolutional networks. The core of
Cnn-Abs is an abstraction-refinement technique, which simplifies the
verification problem through the removal of convolutional connections in a way
that soundly creates an over-approximation of the original problem; and which
restores these connections if the resulting problem becomes too abstract.
Cnn-Abs is designed to use existing verification engines as a backend, and our
evaluation demonstrates that it can significantly boost the performance of a
state-of-the-art DNN verification engine, reducing runtime by 15.7% on average.
- Abstract(参考訳): 畳み込みニューラルネットワークは、コンピュータビジョンや画像処理などの分野での優れたパフォーマンスによって、大きな人気を集めている。
残念ながら、畳み込みネットワークがしばしば誤った結果を生み出すことはよく知られており、例えば、これらのネットワークの入力の小さな摂動は、深刻な分類エラーをもたらす可能性がある。
近年、このような誤りがないことを証明するために多くの検証手法が提案されているが、これらは一般に完全に接続されたネットワークを対象としており、畳み込みネットワークに適用した場合のスケーラビリティの悪化に悩まされている。
このギャップに対処するため,我々は,特に畳み込みネットワークの検証を目的としたcnn-absフレームワークを提案する。
Cnn-Abs の中核は、畳み込み接続の除去によって検証問題を単純化し、元の問題を過度に近似させる方法である。
Cnn-Absは、既存の検証エンジンをバックエンドとして使用するように設計されており、我々の評価は、最先端のDNN検証エンジンの性能を大幅に向上し、ランタイムを平均15.7%削減できることを示している。
関連論文リスト
- SINDER: Repairing the Singular Defects of DINOv2 [61.98878352956125]
大規模なデータセットでトレーニングされたビジョントランスフォーマーモデルは、抽出したパッチトークンにアーティファクトを表示することが多い。
本稿では,小さなデータセットのみを用いて構造欠陥を補正するスムーズなスムーズな正規化を提案する。
論文 参考訳(メタデータ) (2024-07-23T20:34:23Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Tighter Abstract Queries in Neural Network Verification [0.0]
CEGARETTEは,システムとプロパティを同時に抽象化し,洗練する新しい検証機構である。
私たちの結果は有望であり、複数のベンチマークよりもパフォーマンスが大幅に向上したことを証明しています。
論文 参考訳(メタデータ) (2022-10-23T22:18:35Z) - Neural Network Verification using Residual Reasoning [0.0]
本稿では,経験的推論を用いて,抽象化に基づくニューラルネットワークの検証の強化を提案する。
本質的には、精細化されたネットワークが正しく振る舞うことを保証された検索空間の一部に関する情報を、検証者が格納することができる。
論文 参考訳(メタデータ) (2022-08-05T10:39:04Z) - SAR Despeckling Using Overcomplete Convolutional Networks [53.99620005035804]
スペックルはSAR画像を劣化させるため、リモートセンシングにおいて重要な問題である。
近年の研究では、畳み込みニューラルネットワーク(CNN)が古典的解法よりも優れていることが示されている。
本研究は、受容場を制限することで低レベルの特徴を学習することに集中するために、過剰なCNNアーキテクチャを用いる。
本稿では,合成および実SAR画像の非特定化手法と比較して,提案手法により非特定化性能が向上することを示す。
論文 参考訳(メタデータ) (2022-05-31T15:55:37Z) - Mitigating Performance Saturation in Neural Marked Point Processes:
Architectures and Loss Functions [50.674773358075015]
本稿では,グラフ畳み込み層のみを利用するGCHPという単純なグラフベースのネットワーク構造を提案する。
我々は,GCHPがトレーニング時間を大幅に短縮し,時間間確率仮定による確率比損失がモデル性能を大幅に改善できることを示した。
論文 参考訳(メタデータ) (2021-07-07T16:59:14Z) - SignalNet: A Low Resolution Sinusoid Decomposition and Estimation
Network [79.04274563889548]
本稿では,正弦波数を検出するニューラルネットワークアーキテクチャであるSignalNetを提案する。
基礎となるデータ分布と比較して,ネットワークの結果を比較するための最悪の学習しきい値を導入する。
シミュレーションでは、我々のアルゴリズムは常に3ビットデータのしきい値を超えることができるが、しばしば1ビットデータのしきい値を超えることはできない。
論文 参考訳(メタデータ) (2021-06-10T04:21:20Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Scalable Verification of Quantized Neural Networks (Technical Report) [14.04927063847749]
ビットベクトル仕様を持つ量子化ニューラルネットワークのビットエクササイズ実装はPSPACEハードであることを示す。
量子化されたニューラルネットワークのSMTに基づく検証をよりスケーラブルにするための3つの手法を提案する。
論文 参考訳(メタデータ) (2020-12-15T10:05:37Z) - ResGCN: Attention-based Deep Residual Modeling for Anomaly Detection on
Attributed Networks [10.745544780660165]
ResGCN(Residual Graph Convolutional Network)は、注目に基づくディープ・残差モデリング手法である。
ResGCNは属性ネットワーク内の異常ノードを効果的に検出できることを示す。
論文 参考訳(メタデータ) (2020-09-30T15:24:51Z) - DeepAbstract: Neural Network Abstraction for Accelerating Verification [0.0]
入力に対して同じように振る舞うニューロンのクラスタリングに基づいて,完全接続型フィードフォワードニューラルネットワークに適用可能な抽象化フレームワークを提案する。
本稿では,ネットワークの精度を保ちながら,抽象化がネットワークのサイズを減らし,抽象ネットワーク上での検証結果を元のネットワークに戻す方法を示す。
論文 参考訳(メタデータ) (2020-06-24T13:51:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。