論文の概要: Probabilistically Tightened Linear Relaxation-based Perturbation Analysis for Neural Network Verification
- arxiv url: http://arxiv.org/abs/2507.05405v1
- Date: Mon, 07 Jul 2025 18:45:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-09 16:34:37.304275
- Title: Probabilistically Tightened Linear Relaxation-based Perturbation Analysis for Neural Network Verification
- Title(参考訳): 線形緩和型摂動解析によるニューラルネットワークの検証
- Authors: Luca Marzari, Ferdinando Cicalese, Alessandro Farinelli,
- Abstract要約: 本稿では,LiRPAに基づく手法とサンプリングに基づく手法を組み合わせることで,厳密な中間到達性集合を計算できる新しいフレームワークを提案する。
無視可能な計算オーバーヘッドでは、$textttPT-LiRPA$は推定された到達可能な集合を利用し、ニューラルネットワークの出力の上下線形境界を著しく締め付ける。
- 参考スコア(独自算出の注目度): 83.25968588249776
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present $\textbf{P}$robabilistically $\textbf{T}$ightened $\textbf{Li}$near $\textbf{R}$elaxation-based $\textbf{P}$erturbation $\textbf{A}$nalysis ($\texttt{PT-LiRPA}$), a novel framework that combines over-approximation techniques from LiRPA-based approaches with a sampling-based method to compute tight intermediate reachable sets. In detail, we show that with negligible computational overhead, $\texttt{PT-LiRPA}$ exploiting the estimated reachable sets, significantly tightens the lower and upper linear bounds of a neural network's output, reducing the computational cost of formal verification tools while providing probabilistic guarantees on verification soundness. Extensive experiments on standard formal verification benchmarks, including the International Verification of Neural Networks Competition, show that our $\texttt{PT-LiRPA}$-based verifier improves robustness certificates by up to 3.31X and 2.26X compared to related work. Importantly, our probabilistic approach results in a valuable solution for challenging competition entries where state-of-the-art formal verification methods fail, allowing us to provide answers with high confidence (i.e., at least 99%).
- Abstract(参考訳): 我々は、LiRPAベースのアプローチによるオーバー近似技術とサンプリングベースのメソッドを組み合わせて、中間許容集合を厳密に計算する新しいフレームワークである、$\textbf{P}$robabilistically $\textbf{T}$ightened $\textbf{Li}$near $\textbf{R}$elaxation-based $\textbf{P}$erturbation $\textbf{A}$nalysis$\textt{PT-LiRPA}$。
より詳しくは、計算オーバーヘッドを無視すると、$\texttt{PT-LiRPA}$の推定到達可能な集合を利用でき、ニューラルネットワークの出力の上下線形境界を著しく強化し、形式検証ツールの計算コストを低減し、検証精度の確率的保証を提供する。
ニューラルネットワークコンペティションの国際検証を含む、標準的な形式的検証ベンチマークに関する広範な実験は、我々の$\texttt{PT-LiRPA}$-based verifierが関連する研究と比較して、ロバストネス証明書を最大3.31Xと2.26X改善していることを示している。
重要なことは、我々の確率論的アプローチは、最先端の形式的検証手法が失敗する競合のエントリーに挑戦する価値のある解決策となり、高い信頼性(少なくとも99%)の回答が得られます。
関連論文リスト
- Optimal and Feasible Contextuality-based Randomness Generation [4.2126604059714685]
Kochen-Speckerコンテキスト性に基づく半測定独立ランダムネス生成プロトコルは魅力的な特徴を提供する。
一つの量子ビットが非コンテキストであることを示す。すなわち、この量子ビット相関は非コンテキスト隠れ変数(NCHV)モデルで説明できる。
我々は、特定の文脈性テストのクラスに対する、量子的および一般整合性(非シグナリング)の敵による攻撃の可能性について指摘する。
論文 参考訳(メタデータ) (2024-12-28T12:11:07Z) - SPLITZ: Certifiable Robustness via Split Lipschitz Randomized Smoothing [8.471466670802817]
SPLITZは、敵の例に証明可能な堅牢性を提供するための実用的で斬新なアプローチである。
SPLITZのモチベーションは、多くの標準ディープネットワークがリプシッツ定数の不均一性を示すという観察から来ている。
SPLITZは、MNIST、CIFAR-10、ImageNetデータセットにおける既存の最先端のアプローチを一貫して改善することを示す。
論文 参考訳(メタデータ) (2024-07-03T05:13:28Z) - Expressive Losses for Verified Robustness via Convex Combinations [67.54357965665676]
本研究では, 過近似係数と異なる表現的損失に対する性能分布の関係について検討した。
表現性が不可欠である一方で、最悪の場合の損失のより良い近似は、必ずしも優れた堅牢性-正確性トレードオフに結びついていないことを示す。
論文 参考訳(メタデータ) (2023-05-23T12:20:29Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - The Fundamental Price of Secure Aggregation in Differentially Private
Federated Learning [34.630300910399036]
我々は、$varepsilon$ Central DPの下で最高の精度を得るために必要な基本的な通信コストを特徴付ける。
我々の結果は、$tildeOleft( min(n2varepsilon2, d) right)$ bits per client が十分かつ必要であることを示している。
これにより、最先端のSecAgg分散DPスキームに対して大幅に改善される。
論文 参考訳(メタデータ) (2022-03-07T22:56:09Z) - Distributed Sparse Feature Selection in Communication-Restricted
Networks [6.9257380648471765]
疎線形回帰と特徴選択のための新しい分散スキームを提案し,理論的に解析する。
データセット全体から因果次元を推定するために,ネットワーク内の情報共有をシンプルかつ効果的に行う手法を提案する。
論文 参考訳(メタデータ) (2021-11-02T05:02:24Z) - Certifiably Robust Interpretation via Renyi Differential Privacy [77.04377192920741]
我々はRenyi差分プライバシー(RDP)の新しい視点から解釈堅牢性の問題を研究する。
まず、証明可能で証明可能なトップ$k$ロバスト性を提供する。
第二に、提案手法は既存の手法よりも実験的堅牢性を$sim10%$で提供する。
第3に,ロバスト性と計算効率のトレードオフを円滑に行うことができる。
論文 参考訳(メタデータ) (2021-07-04T06:58:01Z) - Beta-CROWN: Efficient Bound Propagation with Per-neuron Split
Constraints for Complete and Incomplete Neural Network Verification [151.62491805851107]
私たちは、ニューロン毎の分割を完全にエンコードできるバウンド伝搬ベースの検証器である$beta$-crownを開発した。
Beta$-CROWNはLPベースのBaB法よりも3桁近い速さで堅牢性検証が可能です。
BaBを早期に終了することにより、不完全な検証にも使用できます。
論文 参考訳(メタデータ) (2021-03-11T11:56:54Z) - Byzantine-Resilient Non-Convex Stochastic Gradient Descent [61.6382287971982]
敵対的レジリエントな分散最適化。
機械は独立して勾配を計算し 協力することができます
私達のアルゴリズムは新しい集中の技術およびサンプル複雑性に基づいています。
それは非常に実用的です:それはないときすべての前の方法の性能を改善します。
セッティングマシンがあります。
論文 参考訳(メタデータ) (2020-12-28T17:19:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。