論文の概要: Probabilistic Verification of Neural Networks using Branch and Bound
- arxiv url: http://arxiv.org/abs/2405.17556v1
- Date: Mon, 27 May 2024 18:00:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-29 23:31:09.209526
- Title: Probabilistic Verification of Neural Networks using Branch and Bound
- Title(参考訳): 分岐と境界を用いたニューラルネットワークの確率論的検証
- Authors: David Boetius, Stefan Leue, Tobias Sutter,
- Abstract要約: ニューラルネットワークの確率的検証は、入力の確率分布の下で、ニューラルネットワークの出力を正式に解析することに関わる。
本稿では,ニューラルネットワークの確率的検証を計算アルゴリズムに基づいて定量化するアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 3.0567348883549816
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Probabilistic verification of neural networks is concerned with formally analysing the output distribution of a neural network under a probability distribution of the inputs. Examples of probabilistic verification include verifying the demographic parity fairness notion or quantifying the safety of a neural network. We present a new algorithm for the probabilistic verification of neural networks based on an algorithm for computing and iteratively refining lower and upper bounds on probabilities over the outputs of a neural network. By applying state-of-the-art bound propagation and branch and bound techniques from non-probabilistic neural network verification, our algorithm significantly outpaces existing probabilistic verification algorithms, reducing solving times for various benchmarks from the literature from tens of minutes to tens of seconds. Furthermore, our algorithm compares favourably even to dedicated algorithms for restricted subsets of probabilistic verification. We complement our empirical evaluation with a theoretical analysis, proving that our algorithm is sound and, under mildly restrictive conditions, also complete when using a suitable set of heuristics.
- Abstract(参考訳): ニューラルネットワークの確率的検証は、入力の確率分布の下で、ニューラルネットワークの出力分布を正式に解析することに関わる。
確率的検証の例としては、人口統計学的パリティ公正の概念の検証や、ニューラルネットワークの安全性の定量化がある。
本稿では,ニューラルネットワークの出力に対する確率に対する下限と上限を反復的に精錬するアルゴリズムに基づく,ニューラルネットワークの確率的検証のための新しいアルゴリズムを提案する。
非確率的ニューラルネットワーク検証から最先端のバウンド伝搬と分岐およびバウンド技術を適用することで,本アルゴリズムは既存の確率的検証アルゴリズムを大幅に上回り,文献から数十分から数十秒までの様々なベンチマークの問題解決時間を短縮する。
さらに,本アルゴリズムは確率的検証の制限された部分集合に対する専用アルゴリズムと比較して好意的に比較する。
我々は経験的評価を理論的解析で補完し、我々のアルゴリズムが健全であること、そして、軽度に制限された条件下では、適切なヒューリスティックセットを使用する際にも完了することを証明する。
関連論文リスト
- Semantic Strengthening of Neuro-Symbolic Learning [85.6195120593625]
ニューロシンボリックアプローチは一般に確率論的目的のファジィ近似を利用する。
トラクタブル回路において,これを効率的に計算する方法を示す。
我々は,Warcraftにおける最小コストパスの予測,最小コスト完全マッチングの予測,スドクパズルの解法という3つの課題に対して,アプローチを検証した。
論文 参考訳(メタデータ) (2023-02-28T00:04:22Z) - Probabilistic Verification of ReLU Neural Networks via Characteristic
Functions [11.489187712465325]
我々は、周波数領域における確率理論のアイデアを用いて、ReLUニューラルネットワークの確率論的検証保証を提供する。
我々は、(深い)フィードフォワードニューラルネットワークを有限地平線上の離散力学系として解釈する。
出力集合の累積分布関数を求め,ネットワークが期待通りに動作しているかどうかを確認する。
論文 参考訳(メタデータ) (2022-12-03T05:53:57Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Scalable computation of prediction intervals for neural networks via
matrix sketching [79.44177623781043]
既存の不確実性推定アルゴリズムでは、モデルアーキテクチャとトレーニング手順を変更する必要がある。
本研究では、与えられたトレーニングされたニューラルネットワークに適用し、近似予測間隔を生成できる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-06T13:18:31Z) - An Overview of Uncertainty Quantification Methods for Infinite Neural
Networks [0.0]
無限幅ニューラルネットワークにおける不確実性を定量化する手法について検討する。
我々は、予測の不確実性に対する厳密な閉形式解を得るために、いくつかの等価結果を利用する。
論文 参考訳(メタデータ) (2022-01-13T00:03:22Z) - PAC-Bayesian Learning of Aggregated Binary Activated Neural Networks
with Probabilities over Representations [2.047424180164312]
本研究では,確率論的ニューラルネットワークの予測器としての期待値について検討し,実数値重みによる正規分布を持つ二元活性化ニューラルネットワークの集約に着目した。
我々は、動的プログラミングアプローチのおかげで、深いが狭いニューラルネットワークに対して、正確な計算が引き続き実行可能であることを示す。
論文 参考訳(メタデータ) (2021-10-28T14:11:07Z) - Why Lottery Ticket Wins? A Theoretical Perspective of Sample Complexity
on Pruned Neural Networks [79.74580058178594]
目的関数の幾何学的構造を解析することにより、刈り取られたニューラルネットワークを訓練する性能を解析する。
本稿では,ニューラルネットワークモデルがプルーニングされるにつれて,一般化が保証された望ましいモデル近傍の凸領域が大きくなることを示す。
論文 参考訳(メタデータ) (2021-10-12T01:11:07Z) - ESPN: Extremely Sparse Pruned Networks [50.436905934791035]
簡単な反復マスク探索法により,非常に深いネットワークの最先端の圧縮を実現することができることを示す。
本アルゴリズムは,シングルショット・ネットワーク・プルーニング法とロッテ・ティケット方式のハイブリッド・アプローチを示す。
論文 参考訳(メタデータ) (2020-06-28T23:09:27Z) - Parallelization Techniques for Verifying Neural Networks [52.917845265248744]
検証問題に基づくアルゴリズムを反復的に導入し、2つの分割戦略を探索する。
また、ニューラルネットワークの検証問題を単純化するために、ニューロンアクティベーションフェーズを利用する、高度に並列化可能な前処理アルゴリズムも導入する。
論文 参考訳(メタデータ) (2020-04-17T20:21:47Z) - A copula-based visualization technique for a neural network [0.0]
機械学習の解釈可能性(英: Interpretability of machine learning)は、人間が意思決定の理由を理解できる範囲として定義される。
我々は、トレーニングされたニューラルネットワークが重要と考える特徴値を明らかにする新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-03-27T10:32:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。