論文の概要: BaB-prob: Branch and Bound with Preactivation Splitting for Probabilistic Verification of Neural Networks
- arxiv url: http://arxiv.org/abs/2509.25647v1
- Date: Tue, 30 Sep 2025 01:39:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.383852
- Title: BaB-prob: Branch and Bound with Preactivation Splitting for Probabilistic Verification of Neural Networks
- Title(参考訳): BaB-prob: ニューラルネットワークの確率的検証のためのプレアクティベーション分割による分岐と境界
- Authors: Fangji Wang, Panagiotis Tsiotras,
- Abstract要約: プレアクティベーション分割を伴う分岐とバウンドは、ニューラルネットワークの決定論的検証に非常に有効であることが示されている。
そこで本稿では,前処理を分割することで,元の問題をサブプロブレムに反復的に分割するBaB-probを提案する。
フィードフォワード・ReLUニューラルネットワークにおけるBaB-probの健全性と完全性を証明する。
- 参考スコア(独自算出の注目度): 13.26751081683149
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Branch-and-bound with preactivation splitting has been shown highly effective for deterministic verification of neural networks. In this paper, we extend this framework to the probabilistic setting. We propose BaB-prob that iteratively divides the original problem into subproblems by splitting preactivations and leverages linear bounds computed by linear bound propagation to bound the probability for each subproblem. We prove soundness and completeness of BaB-prob for feedforward-ReLU neural networks. Furthermore, we introduce the notion of uncertainty level and design two efficient strategies for preactivation splitting, yielding BaB-prob-ordered and BaB+BaBSR-prob. We evaluate BaB-prob on untrained networks, MNIST and CIFAR-10 models, respectively, and VNN-COMP 2025 benchmarks. Across these settings, our approach consistently outperforms state-of-the-art approaches in medium- to high-dimensional input problems.
- Abstract(参考訳): プレアクティベーション分割を伴う分岐とバウンドは、ニューラルネットワークの決定論的検証に非常に有効であることが示されている。
本稿では,この枠組みを確率的設定にまで拡張する。
本研究では, 線形境界伝播により計算された線形境界を利用して各サブプロブレムの確率を計算し, 元の問題を逐次的にサブプロブレムに分割するBaB-probを提案する。
フィードフォワード・ReLUニューラルネットワークにおけるBaB-probの健全性と完全性を証明する。
さらに、不確実性レベルの概念を導入し、BaB-prob-orderedとBaB+BaBSR-probという2つの効率的なプレアクティベーション分割戦略を設計する。
トレーニングされていないネットワーク上でのBaB-prob, MNIST, CIFAR-10モデル, VNN-COMP 2025ベンチマークを評価した。
これらの設定全体で、我々の手法は中~高次元の入力問題において、常に最先端のアプローチより優れています。
関連論文リスト
- BAPE: Learning an Explicit Bayes Classifier for Long-tailed Visual Recognition [78.70453964041718]
現在のディープラーニングアルゴリズムは通常、後部確率を簡易に推定することで最適分類器を解く。
この単純な手法は、厳密にバランスのとれた学術ベンチマークデータセットに有効であることが証明されている。
しかし、これは現実世界の長い尾のデータ分布には適用できない。
本稿では,データ分布のより正確な理論的推定を行う新しい手法(BAPE)を提案する。
論文 参考訳(メタデータ) (2025-06-29T15:12:50Z) - Last Layer Empirical Bayes [24.94944362766761]
ベイズニューラルネットワーク(BNN)とディープアンサンブル(ディープアンサンブル)は、この課題に対処するための最も顕著なアプローチの一つである。
近年の研究では、アンサンブルが使用する分布が、学習データに依存した先行データに対応する後続データとして理解できることに着想を得て、最後の層実験ベイズ(LLEB)を提案する。
LLEBは既存のアプローチと同等に機能し、経験的ベイズが将来の不確実性定量化研究の有望な方向であることを強調した。
論文 参考訳(メタデータ) (2025-05-21T18:00:00Z) - Neural Network Verification with Branch-and-Bound for General Nonlinearities [63.39918329535165]
ブランチ・アンド・バウンド(BaB)は、ニューラルネットワーク(NN)検証において最も効果的な手法の一つである。
我々は、一般的な非線形性にBaBを実行し、一般的なアーキテクチャでNNを検証する汎用フレームワークGenBaBを開発した。
我々のフレームワークは、一般的な非線形グラフの検証を可能にし、単純なNNを超えた検証アプリケーションを可能にする。
論文 参考訳(メタデータ) (2024-05-31T17:51:07Z) - Credal Wrapper of Model Averaging for Uncertainty Estimation in Classification [5.19656787424626]
本稿では,ベイズニューラルネットワーク(BNN)とディープアンサンブル(DE)のモデル平均化のクレダルセット表現を定式化するための,クレダルラッパー(redal wrapper)と呼ばれる革新的なアプローチを提案する。
BNNやDESから導出される単一の予測分布の有限個の集合が与えられた場合、提案したクレダルラッパーアプローチはクラスごとの上限値と低い確率を抽出する。
提案手法は,BNNおよびDEベースラインと比較して不確実性推定において優れた性能を示し,破損したデータに対して低いキャリブレーション誤差を実現する。
論文 参考訳(メタデータ) (2024-05-23T20:51:22Z) - Semantic Strengthening of Neuro-Symbolic Learning [85.6195120593625]
ニューロシンボリックアプローチは一般に確率論的目的のファジィ近似を利用する。
トラクタブル回路において,これを効率的に計算する方法を示す。
我々は,Warcraftにおける最小コストパスの予測,最小コスト完全マッチングの予測,スドクパズルの解法という3つの課題に対して,アプローチを検証した。
論文 参考訳(メタデータ) (2023-02-28T00:04:22Z) - Improved uncertainty quantification for neural networks with Bayesian
last layer [0.0]
不確実性定量化は機械学習において重要な課題である。
本稿では,BLL を用いた NN の対数乗算可能性の再構成を行い,バックプロパゲーションを用いた効率的なトレーニングを実現する。
論文 参考訳(メタデータ) (2023-02-21T20:23:56Z) - On the Convergence of Certified Robust Training with Interval Bound
Propagation [147.77638840942447]
IBPトレーニングの収束に関する理論的解析を行った。
IBPトレーニングを用いてランダムに2層ReLUニューラルネットワークをロジスティック損失でトレーニングする場合、勾配降下はゼロロバストトレーニングエラーに線形収束可能であることを示す。
論文 参考訳(メタデータ) (2022-03-16T21:49:13Z) - PAC-Bayesian Learning of Aggregated Binary Activated Neural Networks
with Probabilities over Representations [2.047424180164312]
本研究では,確率論的ニューラルネットワークの予測器としての期待値について検討し,実数値重みによる正規分布を持つ二元活性化ニューラルネットワークの集約に着目した。
我々は、動的プログラミングアプローチのおかげで、深いが狭いニューラルネットワークに対して、正確な計算が引き続き実行可能であることを示す。
論文 参考訳(メタデータ) (2021-10-28T14:11:07Z) - Certification of Iterative Predictions in Bayesian Neural Networks [79.15007746660211]
我々は、BNNモデルの軌道が与えられた状態に到達する確率に対して、安全でない状態の集合を避けながら低い境界を計算する。
我々は、制御と強化学習の文脈において、下限を用いて、与えられた制御ポリシーの安全性保証を提供する。
論文 参考訳(メタデータ) (2021-05-21T05:23:57Z) - Improved Branch and Bound for Neural Network Verification via Lagrangian
Decomposition [161.09660864941603]
ニューラルネットワークの入出力特性を公式に証明するためのブランチとバウンド(BaB)アルゴリズムのスケーラビリティを改善します。
活性化に基づく新しい分岐戦略とBaBフレームワークであるブランチとデュアルネットワーク境界(BaDNB)を提案する。
BaDNBは、従来の完全検証システムを大きなマージンで上回り、対数特性で平均検証時間を最大50倍に削減した。
論文 参考訳(メタデータ) (2021-04-14T09:22:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。