論文の概要: Verification-Friendly Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2312.09748v1
- Date: Fri, 15 Dec 2023 12:39:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-18 15:50:58.882961
- Title: Verification-Friendly Deep Neural Networks
- Title(参考訳): 深層ニューラルネットワークの検証
- Authors: Anahita Baninajjar, Ahmed Rezine, Amir Aminifar
- Abstract要約: 検証フレンドリなニューラルネットワーク(VNN)を生成するための新しいフレームワークを提案する。
提案手法は,予測性能の点で元のネットワークに匹敵するネットワークを実現する。
これにより、ディープニューラルネットワークよりも多くのVNNに対して堅牢性を確立することができます。
- 参考スコア(独自算出の注目度): 3.6064695344878093
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning techniques often lack formal correctness guarantees. This is
evidenced by the widespread adversarial examples that plague most deep-learning
applications. This resulted in several research efforts that aim at verifying
deep neural networks, with a particular focus on safety-critical applications.
However, formal verification techniques still face major scalability and
precision challenges when dealing with the complexity of such networks. The
over-approximation introduced during the formal verification process to tackle
the scalability challenge often results in inconclusive analysis. To address
this challenge, we propose a novel framework to generate Verification-friendly
Neural Networks (VNNs). We present a post-training optimization framework to
achieve a balance between preserving prediction performance and robustness in
the resulting networks. Our proposed framework proves to result in networks
that are comparable to the original ones in terms of prediction performance,
while amenable to verification. This essentially enables us to establish
robustness for more VNNs than their deep neural network counterparts, in a more
time-efficient manner.
- Abstract(参考訳): 機械学習技術は、しばしば正式な正当性保証を欠いている。
これは、ほとんどのディープラーニングアプリケーションを悩ませる広範な敵の例によって証明されている。
この結果、ディープニューラルネットワークの検証を目的としたいくつかの研究活動が、特に安全クリティカルなアプリケーションに焦点を当てた。
しかし、そのようなネットワークの複雑さを扱う場合、形式的検証技術は依然として大きなスケーラビリティと精度の課題に直面している。
スケーラビリティの課題に取り組むための形式的検証プロセス中に導入された過剰な近似は、しばしば決定的な分析をもたらす。
この課題に対処するために、検証フレンドリなニューラルネットワーク(VNN)を生成する新しいフレームワークを提案する。
本稿では,予測性能とネットワークのロバスト性とのバランスを達成するための学習後最適化フレームワークを提案する。
提案手法は,検証が可能でありながら,予測性能の点で元のネットワークに匹敵するネットワークが得られることを示す。
これにより、より時間効率の良い方法で、ディープニューラルネットワークよりも多くのVNNに対して堅牢性を確立することができます。
関連論文リスト
- Deep Neural Networks Tend To Extrapolate Predictably [56.04573160453392]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Generalization and Estimation Error Bounds for Model-based Neural
Networks [78.88759757988761]
スパースリカバリのためのモデルベースネットワークの一般化能力は、通常のReLUネットワークよりも優れていることを示す。
我々は,高一般化を保証したモデルベースネットワークの構築を可能にする実用的な設計規則を導出する。
論文 参考訳(メタデータ) (2023-04-19T16:39:44Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Tighter Abstract Queries in Neural Network Verification [0.0]
CEGARETTEは,システムとプロパティを同時に抽象化し,洗練する新しい検証機構である。
私たちの結果は有望であり、複数のベンチマークよりもパフォーマンスが大幅に向上したことを証明しています。
論文 参考訳(メタデータ) (2022-10-23T22:18:35Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Residual Error: a New Performance Measure for Adversarial Robustness [85.0371352689919]
ディープラーニングの広く普及を制限する大きな課題は、敵の攻撃に対する脆弱さである。
本研究は,ディープニューラルネットワークの対角強靭性を評価するための新しい性能尺度である残留誤差の概念を提示する。
画像分類を用いた実験結果から,提案手法の有効性と有効性を示した。
論文 参考訳(メタデータ) (2021-06-18T16:34:23Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Scalable Verification of Quantized Neural Networks (Technical Report) [14.04927063847749]
ビットベクトル仕様を持つ量子化ニューラルネットワークのビットエクササイズ実装はPSPACEハードであることを示す。
量子化されたニューラルネットワークのSMTに基づく検証をよりスケーラブルにするための3つの手法を提案する。
論文 参考訳(メタデータ) (2020-12-15T10:05:37Z) - Verifying Recurrent Neural Networks using Invariant Inference [0.0]
本稿では,リカレントニューラルネットワーク(Recurrent Neural Network)と呼ばれる,ニューラルネットワークの多種多様な特性を検証するための新しいアプローチを提案する。
この手法は不変量の推論に基づいており、再帰的ネットワークを単純かつ非再帰的な問題に検証する際の複雑な問題を軽減できる。
論文 参考訳(メタデータ) (2020-04-06T08:08:24Z) - Verification of Neural Networks: Enhancing Scalability through Pruning [15.62342143633075]
我々は、最先端の検証ツールが実際に関心のあるニューラルネットワークを扱えるようにすることに重点を置いている。
本稿では,ネットワークプルーニングに基づく新しいトレーニングパイプラインを提案する。
プルーニングアルゴリズムと検証ツールのポートフォリオを用いた実験の結果、我々のアプローチが考慮すべきネットワークの種類に対して成功していることを示す。
論文 参考訳(メタデータ) (2020-03-17T10:54:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。