論文の概要: Cascading Robustness Verification: Toward Efficient Model-Agnostic Certification
- arxiv url: http://arxiv.org/abs/2602.04236v1
- Date: Wed, 04 Feb 2026 05:54:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.389205
- Title: Cascading Robustness Verification: Toward Efficient Model-Agnostic Certification
- Title(参考訳): カスケードロバスト性検証:効率的なモデル非依存認定に向けて
- Authors: Mohammadreza Maleki, Rushendra Sidibomma, Arman Adibi, Reza Samavi,
- Abstract要約: 不完全検証は効率よくスケールし、ロバスト性検証のコストを削減する。
CRVはモデルに依存しない検証器であり、堅牢性を保証することはモデルのトレーニングプロセスとは無関係である。
我々は,CRVが,強力だが計算コストのかかる不完全検証器と比較して,同等あるいは高い精度で検証可能であることを示す。
- 参考スコア(独自算出の注目度): 1.6105236927161437
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Certifying neural network robustness against adversarial examples is challenging, as formal guarantees often require solving non-convex problems. Hence, incomplete verifiers are widely used because they scale efficiently and substantially reduce the cost of robustness verification compared to complete methods. However, relying on a single verifier can underestimate robustness because of loose approximations or misalignment with training methods. In this work, we propose Cascading Robustness Verification (CRV), which goes beyond an engineering improvement by exposing fundamental limitations of existing robustness metric and introducing a framework that enhances both reliability and efficiency. CRV is a model-agnostic verifier, meaning that its robustness guarantees are independent of the model's training process. The key insight behind the CRV framework is that, when using multiple verification methods, an input is certifiably robust if at least one method certifies it as robust. Rather than relying solely on a single verifier with a fixed constraint set, CRV progressively applies multiple verifiers to balance the tightness of the bound and computational cost. Starting with the least expensive method, CRV halts as soon as an input is certified as robust; otherwise, it proceeds to more expensive methods. For computationally expensive methods, we introduce a Stepwise Relaxation Algorithm (SR) that incrementally adds constraints and checks for certification at each step, thereby avoiding unnecessary computation. Our theoretical analysis demonstrates that CRV achieves equal or higher verified accuracy compared to powerful but computationally expensive incomplete verifiers in the cascade, while significantly reducing verification overhead. Empirical results confirm that CRV certifies at least as many inputs as benchmark approaches, while improving runtime efficiency by up to ~90%.
- Abstract(参考訳): 形式的な保証は、しばしば非凸問題の解決を必要とするため、敵の例に対するニューラルネットワークの堅牢性を証明することは困難である。
したがって、不完全検証は効率よくスケールし、完全手法に比べてロバスト性検証のコストを大幅に削減するため、広く利用されている。
しかし、1つの検証器を頼りにすれば、緩やかな近似や訓練方法の誤りにより、頑健さを過小評価できる。
本研究では,既存のロバストネス指標の基本的限界を明らかにし,信頼性と効率性を両立させるフレームワークを導入することにより,工学的改善を超えて,カスケーディングロバストネス検証(CRV)を提案する。
CRVはモデルに依存しない検証器であり、堅牢性を保証することはモデルのトレーニングプロセスとは無関係である。
CRVフレームワークの背後にある重要な洞察は、複数の検証メソッドを使用する場合、少なくとも1つのメソッドがそれを堅牢であると認定した場合、入力は確実に堅牢であるということである。
固定された制約セットを持つ単一の検証器にのみ依存するのではなく、CRVは、境界と計算コストの厳密さのバランスをとるために、徐々に複数の検証器を適用している。
最小のコストの手法から始めると、入力が堅牢であると認定されるとすぐにCRVは停止する。
計算コストの高い手法では,各ステップにおける認証の制約やチェックを漸進的に追加し,不要な計算を避けるステップワイズ緩和アルゴリズム(SR)を導入する。
理論解析により,CRVは,カスケード内の強力だが計算コストのかかる不完全検証器に比べて高い精度で精度を達成でき,検証オーバーヘッドを著しく低減できることを示した。
実証的な結果は、CRVがベンチマークアプローチと同じくらいのインプットを認定し、実行効率を最大90%向上することを確認した。
関連論文リスト
- MIBP-Cert: Certified Training against Data Perturbations with Mixed-Integer Bilinear Programs [50.41998220099097]
トレーニング中のデータエラー、汚職、中毒攻撃は、現代のAIシステムの信頼性に大きな脅威をもたらす。
混合整数双線形プログラミング(MIBP)に基づく新しい認証手法MIBP-Certを紹介する。
摂動データや操作データを通じて到達可能なパラメータの集合を計算することで、可能なすべての結果を予測することができ、堅牢性を保証することができる。
論文 参考訳(メタデータ) (2024-12-13T14:56:39Z) - Formally Certified Approximate Model Counting [25.20597060311209]
本稿では、その出力近似の品質に関する保証を正式に保証した、近似モデルカウントのための最初の認証フレームワークを提案する。
i)Isabelle/HOL証明アシスタントにおけるアルゴリズムのPAC保証の静的かつ1回限りの公式な証明、(ii)証明証明書を用いた外部CNF-XORソルバに対するApproxMCの呼び出しの動的かつ1回実行による検証。
論文 参考訳(メタデータ) (2024-06-17T11:02:04Z) - Adaptive Hierarchical Certification for Segmentation using Randomized Smoothing [87.48628403354351]
機械学習の認証は、特定の条件下では、敵対的なサンプルが特定の範囲内でモデルを回避できないことを証明している。
セグメンテーションの一般的な認証方法は、平らな粒度のクラスを使い、モデルの不確実性による高い断続率をもたらす。
本稿では,複数レベルの階層内で画素を認証し,不安定なコンポーネントに対して粗いレベルに適応的に認証を緩和する,新しい,より実用的な設定を提案する。
論文 参考訳(メタデータ) (2024-02-13T11:59:43Z) - Provably Cost-Sensitive Adversarial Defense via Randomized Smoothing [26.26867107261039]
本研究では,コスト依存シナリオ下での対向的摂動に対する頑健な学習の問題について検討する。
当社のソリューションでは,コストに敏感なロバストネスを認証し,最適化するための,証明可能な堅牢な学習アルゴリズムを導入している。
さらに,モデル精度を損なうことなく,信頼性の高いコスト感受性を向上するロバストトレーニング手法を設計する。
論文 参考訳(メタデータ) (2023-10-12T21:39:16Z) - Incremental Randomized Smoothing Certification [5.971462597321995]
ごく少数のサンプルで近似モデルの認証を行うために、元のスムーズなモデルに対する認証保証を再利用する方法を示す。
提案手法の有効性を実験的に実証し,スクラッチから近似モデルのランダムな平滑化を適用した認証に対して,最大3倍の認証スピードアップを示す。
論文 参考訳(メタデータ) (2023-05-31T03:11:15Z) - Certified Interpretability Robustness for Class Activation Mapping [77.58769591550225]
本稿では,解釈可能性マップのためのCORGI(Certifiable prOvable Robustness Guarantees)を提案する。
CORGIは入力画像を取り込み、そのCAM解釈可能性マップのロバスト性に対する証明可能な下限を与えるアルゴリズムである。
交通標識データを用いたケーススタディによるCORGIの有効性を示す。
論文 参考訳(メタデータ) (2023-01-26T18:58:11Z) - Confidence-aware Training of Smoothed Classifiers for Certified
Robustness [75.95332266383417]
我々は「ガウス雑音下での精度」を、入力に対する対角的ロバスト性の容易に計算可能なプロキシとして利用する。
実験の結果, 提案手法は, 最先端の訓練手法による信頼性向上を継続的に示すことがわかった。
論文 参考訳(メタデータ) (2022-12-18T03:57:12Z) - Input-Specific Robustness Certification for Randomized Smoothing [76.76115360719837]
本稿では,ロバストネス認証の費用対効果を達成するために,インプット・スペクティブ・サンプリング(ISS)の高速化を提案する。
ISSは、認定半径0.05の限られたコストで3回以上、認定をスピードアップすることができる。
論文 参考訳(メタデータ) (2021-12-21T12:16:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。