論文の概要: Mini-Batch Robustness Verification of Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2508.15454v1
- Date: Thu, 21 Aug 2025 11:19:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.294557
- Title: Mini-Batch Robustness Verification of Deep Neural Networks
- Title(参考訳): ディープニューラルネットワークのミニバッチロバスト性検証
- Authors: Saar Tzour-Shaday, Dana Drachsler Cohen,
- Abstract要約: BaVerLyは、ミニバッチを動的に構築し、検証することで、$epsilon$-ballsのセットの局所的な検証を促進する音と完全検証器である。
結果、BaVerLyは平均2.3倍、最大4.1倍の検証を行い、分析時間を24時間から6時間に短縮した。
- 参考スコア(独自算出の注目度): 1.5991239382707645
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural network image classifiers are ubiquitous in many safety-critical applications. However, they are susceptible to adversarial attacks. To understand their robustness to attacks, many local robustness verifiers have been proposed to analyze $\epsilon$-balls of inputs. Yet, existing verifiers introduce a long analysis time or lose too much precision, making them less effective for a large set of inputs. In this work, we propose a new approach to local robustness: group local robustness verification. The key idea is to leverage the similarity of the network computations of certain $\epsilon$-balls to reduce the overall analysis time. We propose BaVerLy, a sound and complete verifier that boosts the local robustness verification of a set of $\epsilon$-balls by dynamically constructing and verifying mini-batches. BaVerLy adaptively identifies successful mini-batch sizes, accordingly constructs mini-batches of $\epsilon$-balls that have similar network computations, and verifies them jointly. If a mini-batch is verified, all $\epsilon$-balls are proven robust. Otherwise, one $\epsilon$-ball is suspected as not being robust, guiding the refinement. In the latter case, BaVerLy leverages the analysis results to expedite the analysis of that $\epsilon$-ball as well as the other $\epsilon$-balls in the batch. We evaluate BaVerLy on fully connected and convolutional networks for MNIST and CIFAR-10. Results show that BaVerLy scales the common one by one verification by 2.3x on average and up to 4.1x, in which case it reduces the total analysis time from 24 hours to 6 hours.
- Abstract(参考訳): ニューラルネットワーク画像分類器は、多くの安全クリティカルなアプリケーションにおいてユビキタスである。
しかし、敵の攻撃を受けやすい。
攻撃に対するロバスト性を理解するため、多くの局所ロバスト性検証器が$\epsilon$-ballsの入力を分析するために提案されている。
しかし、既存の検証器では分析時間が長くなりすぎるか、精度が低すぎるため、大量の入力に対して効果が低い。
本研究では,局所ロバスト性に対する新たなアプローチとして,グループ局所ロバスト性検証を提案する。
鍵となる考え方は、ある$\epsilon$-ballsのネットワーク計算の類似性を利用して、全体的な分析時間を短縮することである。
ミニバッチを動的に構築し,検証することにより,$\epsilon$-ballsの局所ロバスト性検証を向上する,音と完全検証器であるBaVerLyを提案する。
BaVerLyは、ネットワーク計算に類似した$\epsilon$-ballsのミニバッチを構築し、それらを共同で検証する。
ミニバッチが検証されると、すべての$\epsilon$-ballsが堅牢であることが証明される。
さもなければ、$\epsilon$-ballが堅牢でないと疑われ、改良を導く。
後者の場合、BaVerLyは分析結果を利用して、バッチ内の他の$\epsilon$-ballだけでなく、その$\epsilon$-ballの分析を迅速化する。
我々は,MNISTとCIFAR-10の完全連結および畳み込みネットワーク上でBaVerLyを評価する。
結果、BaVerLyは平均2.3倍、最大4.1倍の検証を行い、分析時間を24時間から6時間に短縮した。
関連論文リスト
- Probabilistically Tightened Linear Relaxation-based Perturbation Analysis for Neural Network Verification [83.25968588249776]
本稿では,LiRPAに基づく手法とサンプリングに基づく手法を組み合わせることで,厳密な中間到達性集合を計算できる新しいフレームワークを提案する。
無視可能な計算オーバーヘッドでは、$textttPT-LiRPA$は推定された到達可能な集合を利用し、ニューラルネットワークの出力の上下線形境界を著しく締め付ける。
論文 参考訳(メタデータ) (2025-07-07T18:45:53Z) - Almost Minimax Optimal Best Arm Identification in Piecewise Stationary Linear Bandits [55.957560311008926]
そこで本研究では,各文脈の平均値によって腕の質を計測するPSLBモデルを提案する。
PS$varepsilon$BAI$+$は、$varepsilon$-optimal armを、確率$ge 1-delta$と最小限のサンプルで識別することが保証される。
論文 参考訳(メタデータ) (2024-10-10T06:15:42Z) - Boosting Few-Pixel Robustness Verification via Covering Verification Designs [1.3024517678456733]
ニューラルネットワークの信頼性を高めるためには、局所的な堅牢性を証明することが不可欠である。
多くの検証者は$L_infty$$epsilon$-ballsでロバスト性を証明するが、$L_infty$$epsilon$-ballsでロバスト性を検証する作業はほとんどない。
提案するCoVerDは,ブロックサイズ分布を予測せずに,異なる候補被覆を選択する,$L_$ロバスト性検証器である。
論文 参考訳(メタデータ) (2024-05-17T17:23:36Z) - Matching the Statistical Query Lower Bound for $k$-Sparse Parity Problems with Sign Stochastic Gradient Descent [83.85536329832722]
我々は、2層完全連結ニューラルネットワーク上での符号勾配降下(SGD)による$k$スパースパリティ問題を解く。
このアプローチは、$d$次元ハイパーキューブ上での$k$スパースパリティ問題を効率的に解くことができることを示す。
次に、符号SGDを持つトレーニングニューラルネットワークが、この優れたネットワークを効果的に近似し、小さな統計的誤差で$k$-parity問題を解く方法を示す。
論文 参考訳(メタデータ) (2024-04-18T17:57:53Z) - Bounding the Width of Neural Networks via Coupled Initialization -- A
Worst Case Analysis [121.9821494461427]
2層ReLUネットワークに必要なニューロン数を著しく削減する方法を示す。
また、事前の作業を改善するための新しい下位境界を証明し、ある仮定の下では、最善を尽くすことができることを証明します。
論文 参考訳(メタデータ) (2022-06-26T06:51:31Z) - {\epsilon}-weakened Robustness of Deep Neural Networks [9.183179469739194]
本稿では,深層ニューラルネットワーク(DNN)の信頼性と安定性を解析するための,$varepsilon$-weakened robustnessの表記法を提案する。
我々は、$varepsilon$-weakened robustness decision problem is PP-complete and give a statistical decision algorithm with user-controllable error bound。
また、品質問題の解析にもその可能性を示します。
論文 参考訳(メタデータ) (2021-10-29T13:27:01Z) - Robust Learning of Fixed-Structure Bayesian Networks in Nearly-Linear
Time [13.617081331738056]
我々は、サンプルの$epsilon$-fractionが逆転して破損するベイズネットワークを学習する問題を研究する。
本稿では,この問題に対する線形時間アルゴリズムを,次元に依存しない誤差保証で提示する。
論文 参考訳(メタデータ) (2021-05-12T10:11:32Z) - Beta-CROWN: Efficient Bound Propagation with Per-neuron Split
Constraints for Complete and Incomplete Neural Network Verification [151.62491805851107]
私たちは、ニューロン毎の分割を完全にエンコードできるバウンド伝搬ベースの検証器である$beta$-crownを開発した。
Beta$-CROWNはLPベースのBaB法よりも3桁近い速さで堅牢性検証が可能です。
BaBを早期に終了することにより、不完全な検証にも使用できます。
論文 参考訳(メタデータ) (2021-03-11T11:56:54Z) - Computationally efficient sparse clustering [67.95910835079825]
我々はPCAに基づく新しいクラスタリングアルゴリズムの有限サンプル解析を行う。
ここでは,ミニマックス最適誤クラスタ化率を,体制$|theta infty$で達成することを示す。
論文 参考訳(メタデータ) (2020-05-21T17:51:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。