論文の概要: Tighter Abstract Queries in Neural Network Verification
- arxiv url: http://arxiv.org/abs/2210.12871v1
- Date: Sun, 23 Oct 2022 22:18:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 13:55:25.899337
- Title: Tighter Abstract Queries in Neural Network Verification
- Title(参考訳): ニューラルネットワーク検証におけるTighter Abstract Queries
- Authors: Elazar Cohen, Yizhak Yisrael Elboher, Clark Barrett, Guy Katz
- Abstract要約: CEGARETTEは,システムとプロパティを同時に抽象化し,洗練する新しい検証機構である。
私たちの結果は有望であり、複数のベンチマークよりもパフォーマンスが大幅に向上したことを証明しています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural networks have become critical components of reactive systems in
various domains within computer science. Despite their excellent performance,
using neural networks entails numerous risks that stem from our lack of ability
to understand and reason about their behavior. Due to these risks, various
formal methods have been proposed for verifying neural networks; but
unfortunately, these typically struggle with scalability barriers. Recent
attempts have demonstrated that abstraction-refinement approaches could play a
significant role in mitigating these limitations; but these approaches can
often produce networks that are so abstract, that they become unsuitable for
verification. To deal with this issue, we present CEGARETTE, a novel
verification mechanism where both the system and the property are abstracted
and refined simultaneously. We observe that this approach allows us to produce
abstract networks which are both small and sufficiently accurate, allowing for
quick verification times while avoiding a large number of refinement steps. For
evaluation purposes, we implemented CEGARETTE as an extension to the recently
proposed CEGAR-NN framework. Our results are very promising, and demonstrate a
significant improvement in performance over multiple benchmarks.
- Abstract(参考訳): ニューラルネットワークは、コンピュータサイエンスにおけるさまざまな領域におけるリアクティブシステムの重要な構成要素となっている。
優れたパフォーマンスにもかかわらず、ニューラルネットワークを使用することは、私たちの行動を理解し、判断する能力の欠如に起因する多くのリスクを伴います。
これらのリスクのため、ニューラルネットワークの検証には様々な形式的手法が提案されているが、残念ながらスケーラビリティの障壁に苦しむことが多い。
最近の試みでは、これらの制限を緩和する上で、抽象化-制限アプローチが重要な役割を果たすことが示されているが、これらのアプローチは、しばしば、非常に抽象的なネットワークを生成し、検証に適さないものとなる。
この問題に対処するため,システムとプロパティを同時に抽象化・洗練する新しい検証機構であるCEGARETTEを提案する。
このアプローチによって,小型かつ十分に正確な抽象ネットワークを作成でき,多数の改良ステップを回避しつつ,迅速な検証時間を確保できることがわかった。
評価のために,最近提案された CEGAR-NN フレームワークの拡張として CEGARETTE を実装した。
私たちの結果は有望であり、複数のベンチマークに対するパフォーマンスの大幅な改善を示しています。
関連論文リスト
- Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - On Optimizing Back-Substitution Methods for Neural Network Verification [1.4394939014120451]
本稿では, 後方置換がより厳密な境界を生じさせるアプローチを提案する。
我々の技術は、多くの既存のシンボル境界伝搬技術に統合できるという意味で、一般的なものである。
論文 参考訳(メタデータ) (2022-08-16T11:16:44Z) - Neural Network Verification using Residual Reasoning [0.0]
本稿では,経験的推論を用いて,抽象化に基づくニューラルネットワークの検証の強化を提案する。
本質的には、精細化されたネットワークが正しく振る舞うことを保証された検索空間の一部に関する情報を、検証者が格納することができる。
論文 参考訳(メタデータ) (2022-08-05T10:39:04Z) - Abstraction and Refinement: Towards Scalable and Exact Verification of
Neural Networks [9.85360493553261]
ディープニューラルネットワーク(DNN)の実践はますます進んでいるが、ロバストさの欠如により、安全クリティカルなドメインへの応用が妨げられている。
本稿では,スケーラブルで正確なDNN検証のための新しい抽象化・リファインメント手法を提案する。
論文 参考訳(メタデータ) (2022-07-02T07:04:20Z) - Toward Certified Robustness Against Real-World Distribution Shifts [65.66374339500025]
我々は、データから摂動を学ぶために生成モデルを訓練し、学習したモデルの出力に関して仕様を定義する。
この設定から生じるユニークな挑戦は、既存の検証者がシグモイドの活性化を厳密に近似できないことである。
本稿では,古典的な反例誘導的抽象的洗練の概念を活用するシグモイドアクティベーションを扱うための一般的なメタアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-08T04:09:13Z) - An Abstraction-Refinement Approach to Verifying Convolutional Neural
Networks [0.0]
本稿では,畳み込みネットワークの検証を目的としたCnn-Absフレームワークを提案する。
Cnn-Abs のコアは、検証問題を単純化する抽象化・リファインメント技術である。
Cnn-Absは最先端の検証エンジンの性能を大幅に向上させ、ランタイムを平均15.7%削減することができる。
論文 参考訳(メタデータ) (2022-01-06T08:57:43Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - ESPN: Extremely Sparse Pruned Networks [50.436905934791035]
簡単な反復マスク探索法により,非常に深いネットワークの最先端の圧縮を実現することができることを示す。
本アルゴリズムは,シングルショット・ネットワーク・プルーニング法とロッテ・ティケット方式のハイブリッド・アプローチを示す。
論文 参考訳(メタデータ) (2020-06-28T23:09:27Z) - Verifying Recurrent Neural Networks using Invariant Inference [0.0]
本稿では,リカレントニューラルネットワーク(Recurrent Neural Network)と呼ばれる,ニューラルネットワークの多種多様な特性を検証するための新しいアプローチを提案する。
この手法は不変量の推論に基づいており、再帰的ネットワークを単純かつ非再帰的な問題に検証する際の複雑な問題を軽減できる。
論文 参考訳(メタデータ) (2020-04-06T08:08:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。