論文の概要: Efficient Preimage Approximation for Neural Network Certification
- arxiv url: http://arxiv.org/abs/2505.22798v1
- Date: Wed, 28 May 2025 19:13:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:07.498351
- Title: Efficient Preimage Approximation for Neural Network Certification
- Title(参考訳): ニューラルネットワーク認証のための効率的な事前近似
- Authors: Anton Björklund, Mykola Zaitsev, Marta Kwiatkowska,
- Abstract要約: 現実のユースケースでは、パッチ攻撃に対する認証が難しい」
定量的なカバレッジ推定も提供する認証のアプローチのひとつは、ニューラルネットワークの事前イメージを活用することだ。
最先端のPreMAPアルゴリズムを含む事前近似法はスケーラビリティに苦慮する。
本稿では,より厳密な境界,適応的なモンテカルロサンプリング,改良された分岐を含むPreMAPのアルゴリズム改良を提案する。
- 参考スコア(独自算出の注目度): 16.48296008910141
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The growing reliance on artificial intelligence in safety- and security-critical applications demands effective neural network certification. A challenging real-world use case is certification against ``patch attacks'', where adversarial patches or lighting conditions obscure parts of images, for example traffic signs. One approach to certification, which also gives quantitative coverage estimates, utilizes preimages of neural networks, i.e., the set of inputs that lead to a specified output. However, these preimage approximation methods, including the state-of-the-art PREMAP algorithm, struggle with scalability. This paper presents novel algorithmic improvements to PREMAP involving tighter bounds, adaptive Monte Carlo sampling, and improved branching heuristics. We demonstrate efficiency improvements of at least an order of magnitude on reinforcement learning control benchmarks, and show that our method scales to convolutional neural networks that were previously infeasible. Our results demonstrate the potential of preimage approximation methodology for reliability and robustness certification.
- Abstract(参考訳): 安全およびセキュリティクリティカルなアプリケーションにおける人工知能への依存の高まりは、効果的なニューラルネットワーク認証を要求する。
現実のユースケースでは,‘パッチアタック’に対する認証が難しい。
認証に対する1つのアプローチは、定量的なカバレッジ推定も提供し、ニューラルネットワークの前像、すなわち特定の出力につながる入力のセットを利用する。
しかし、最先端のPreMAPアルゴリズムを含むこれらのプリモージュ近似手法はスケーラビリティに苦慮している。
本稿では,より厳密な境界,適応的なモンテカルロサンプリング,分岐ヒューリスティックスの改善を含むPreMAPのアルゴリズム改良を提案する。
我々は,強化学習制御ベンチマークにおいて,少なくとも1桁の効率向上を実証し,従来実現不可能であった畳み込みニューラルネットワークにスケールすることを示す。
本研究は,信頼性・堅牢性評価のための事前近似手法の可能性を示すものである。
関連論文リスト
- Efficient Reachability Analysis for Convolutional Neural Networks Using Hybrid Zonotopes [4.32258850473064]
フィードフォワードニューラルネットワークの既存の伝播に基づく到達可能性分析手法は、スケーラビリティと精度の両方を達成するのに苦労することが多い。
この研究は、畳み込みニューラルネットワークの到達可能な集合を計算するための、新しいセットベースのアプローチを示す。
論文 参考訳(メタデータ) (2025-03-13T19:45:26Z) - PREMAP: A Unifying PREiMage APproximation Framework for Neural Networks [30.701422594374456]
本稿では,任意の多面体出力集合のアンダー・アンド・オーバー近似を生成する事前抽象化のためのフレームワークを提案する。
提案手法を様々なタスクで評価し,高インプット次元画像分類タスクに対する効率とスケーラビリティの大幅な向上を示す。
論文 参考訳(メタデータ) (2024-08-17T17:24:47Z) - Policy Verification in Stochastic Dynamical Systems Using Logarithmic Neural Certificates [7.9898826915621965]
我々は、リーチエイド仕様に関する離散時間システムに対するニューラルネットワークポリシーの検証について検討する。
このような検証タスクに対する既存のアプローチは、ニューラルネットワークの計算済みリプシッツ定数に依存している。
我々は既存のアプローチよりも小さなリプシッツ定数を得るための2つの重要な貢献を提示する。
論文 参考訳(メタデータ) (2024-06-02T18:19:19Z) - Certified Interpretability Robustness for Class Activation Mapping [77.58769591550225]
本稿では,解釈可能性マップのためのCORGI(Certifiable prOvable Robustness Guarantees)を提案する。
CORGIは入力画像を取り込み、そのCAM解釈可能性マップのロバスト性に対する証明可能な下限を与えるアルゴリズムである。
交通標識データを用いたケーススタディによるCORGIの有効性を示す。
論文 参考訳(メタデータ) (2023-01-26T18:58:11Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Can pruning improve certified robustness of neural networks? [106.03070538582222]
ニューラルネット・プルーニングはディープ・ニューラル・ネットワーク(NN)の実証的ロバスト性を向上させることができることを示す。
実験の結果,NNを適切に刈り取ることで,その精度を8.2%まで向上させることができることがわかった。
さらに,認証された宝くじの存在が,従来の密集モデルの標準および認証された堅牢な精度に一致することを観察する。
論文 参考訳(メタデータ) (2022-06-15T05:48:51Z) - A Robust Backpropagation-Free Framework for Images [47.97322346441165]
画像データに対するエラーカーネル駆動型アクティベーションアライメントアルゴリズムを提案する。
EKDAAは、ローカルに派生したエラー送信カーネルとエラーマップを導入することで達成される。
結果は、識別不能なアクティベーション機能を利用するEKDAAトレーニングCNNに対して提示される。
論文 参考訳(メタデータ) (2022-06-03T21:14:10Z) - Robustness against Adversarial Attacks in Neural Networks using
Incremental Dissipativity [3.8673567847548114]
逆例はニューラルネットワークの分類性能を低下させるのが容易である。
本研究は,ニューラルネットワークに対する漸進的拡散性に基づくロバスト性証明を提案する。
論文 参考訳(メタデータ) (2021-11-25T04:42:57Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。