論文の概要: VNN: Verification-Friendly Neural Networks with Hard Robustness Guarantees
- arxiv url: http://arxiv.org/abs/2312.09748v2
- Date: Mon, 10 Jun 2024 09:35:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-12 04:28:28.883416
- Title: VNN: Verification-Friendly Neural Networks with Hard Robustness Guarantees
- Title(参考訳): VNN:頑丈なロバスト性保証を備えた検証フレンドリなニューラルネットワーク
- Authors: Anahita Baninajjar, Ahmed Rezine, Amir Aminifar,
- Abstract要約: VNN(Verification-Friendly Neural Networks)を生成するための新しいフレームワークを提案する。
本稿では,予測性能と検証親和性とのバランスをとるための学習後最適化フレームワークを提案する。
- 参考スコア(独自算出の注目度): 3.208888890455612
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning techniques often lack formal correctness guarantees, evidenced by the widespread adversarial examples that plague most deep-learning applications. This lack of formal guarantees resulted in several research efforts that aim at verifying Deep Neural Networks (DNNs), with a particular focus on safety-critical applications. However, formal verification techniques still face major scalability and precision challenges. The over-approximation introduced during the formal verification process to tackle the scalability challenge often results in inconclusive analysis. To address this challenge, we propose a novel framework to generate Verification-Friendly Neural Networks (VNNs). We present a post-training optimization framework to achieve a balance between preserving prediction performance and verification-friendliness. Our proposed framework results in VNNs that are comparable to the original DNNs in terms of prediction performance, while amenable to formal verification techniques. This essentially enables us to establish robustness for more VNNs than their DNN counterparts, in a time-efficient manner.
- Abstract(参考訳): 機械学習技術は、しばしば正式な正当性保証を欠いている。
この正式な保証の欠如は、ディープニューラルネットワーク(DNN)の検証を目的としたいくつかの研究成果をもたらし、特に安全クリティカルなアプリケーションに焦点を当てた。
しかし、正式な検証技術は依然として大きなスケーラビリティと精度の課題に直面している。
スケーラビリティの問題に取り組むための公式な検証プロセスの間に導入された過度な近似は、しばしば決定的な分析をもたらす。
この課題に対処するために、検証フレンドリニューラルネットワーク(VNN)を生成するための新しいフレームワークを提案する。
本稿では,予測性能と検証親和性とのバランスをとるための学習後最適化フレームワークを提案する。
提案手法は,予測性能の点で元のDNNに匹敵するが,形式的検証手法には適している。
これにより、時間効率のよい方法で、DNNよりも多くのVNNに対して堅牢性を確立することができます。
関連論文リスト
- Uncertainty in Graph Neural Networks: A Survey [50.63474656037679]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで広く使われている。
しかし、多様な情報源から生じるGNNの予測的不確実性は、不安定で誤った予測につながる可能性がある。
本調査は,不確実性の観点からGNNの概要を概観することを目的としている。
論文 参考訳(メタデータ) (2024-03-11T21:54:52Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - Scaling #DNN-Verification Tools with Efficient Bound Propagation and
Parallel Computing [57.49021927832259]
ディープニューラルネットワーク(DNN)は多くのシナリオで異常な結果を示した強力なツールです。
しかし、それらの複雑な設計と透明性の欠如は、現実世界のアプリケーションに適用する際の安全性上の懸念を提起する。
DNNの形式的検証(FV)は、安全面の証明可能な保証を提供する貴重なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-12-10T13:51:25Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - CARE: Certifiably Robust Learning with Reasoning via Variational
Inference [26.210129662748862]
推論パイプライン(CARE)を用いた頑健な学習を提案する。
CAREは、最先端のベースラインに比べて、かなり高い信頼性のロバスト性を達成する。
さらに,CAREの実証的ロバスト性および知識統合の有効性を示すために,異なるアブレーション研究を行った。
論文 参考訳(メタデータ) (2022-09-12T07:15:52Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Scalable Verification of GNN-based Job Schedulers [16.7289491091472]
グラフニューラルネットワーク(GNN)は、手作りクラスタよりも優れたパフォーマンスを達成するため、ジョブのスケジューリングに応用されている。
GNN-Verifyは,これらのスケジューラの単一ステップ特性と複数ステップ特性の両方を検証するための,最初の汎用フレームワークである。
論文 参考訳(メタデータ) (2022-03-07T06:13:04Z) - PAC Confidence Predictions for Deep Neural Network Classifiers [28.61937254015157]
ディープニューラルネットワーク(DNN)を安全クリティカルな環境でデプロイする上で重要な課題は、その不確実性を定量化する厳密な方法を提供することだ。
証明可能な正当性保証を備えたDNNに対して,予測された分類信頼度を構築するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-11-02T04:09:17Z) - Efficient Exact Verification of Binarized Neural Networks [15.639601066641099]
バイナリニューラルネットワーク(BNN)は、同等の堅牢性を提供し、正確かつはるかに効率的な検証を可能にする。
我々は,BNNの効率的かつ正確な検証を行うための新しいシステムであるEEVを提案する。
非自明な畳み込みBNNのL-inf-bounded adversarial robustnessに対する最初の正確な検証結果を示すことにより、脳波の有効性を実証する。
論文 参考訳(メタデータ) (2020-05-07T16:34:30Z) - Scalable Quantitative Verification For Deep Neural Networks [44.570783946111334]
ディープニューラルネットワーク(DNN)のためのテスト駆動検証フレームワークを提案する。
本手法は,形式的確率特性の健全性が証明されるまで,十分な試験を行う。
われわれの研究は、現実世界のディープニューラルネットワークが捉えた分布の性質を、証明可能な保証で検証する方法を開拓している。
論文 参考訳(メタデータ) (2020-02-17T09:53:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。