論文の概要: Efficient Preimage Approximation for Neural Network Certification
- arxiv url: http://arxiv.org/abs/2505.22798v2
- Date: Fri, 03 Oct 2025 11:50:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 14:21:29.765623
- Title: Efficient Preimage Approximation for Neural Network Certification
- Title(参考訳): ニューラルネットワーク認証のための効率的な事前近似
- Authors: Anton Björklund, Mykola Zaitsev, Marta Kwiatkowska,
- Abstract要約: より厳密な境界、適応的なモンテカルロサンプリング、改良された分岐を含むPreMAPに対する新しい拡張を提案する。
これらの効率の改善はオリジナルのPreMAPを大きく上回り、難易度の高いネットワークへのスケーリングを可能にした。
本稿では,コンピュータビジョンから制御まで幅広いユースケースにおいて,信頼性と堅牢性を解析・証明するための事前近似手法の可能性を示す。
- 参考スコア(独自算出の注目度): 11.808711116876651
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The growing reliance on artificial intelligence in safety- and security-critical applications demands effective neural network certification. A challenging real-world use case is "patch attacks", where adversarial patches or lighting conditions obscure parts of images, for example, traffic signs. A significant step towards certification against patch attacks was recently achieved using PREMAP, which uses under- and over-approximations of the preimage, the set of inputs that lead to a specified output, for the certification. While the PREMAP approach is versatile, it is currently limited to fully-connected neural networks of moderate dimensionality. In order to tackle broader real-world use cases, we present novel algorithmic extensions to PREMAP involving tighter bounds, adaptive Monte Carlo sampling, and improved branching heuristics. Firstly, we demonstrate that these efficiency improvements significantly outperform the original PREMAP and enable scaling to convolutional neural networks that were previously intractable. Secondly, we showcase the potential of preimage approximation methodology for analysing and certifying reliability and robustness on a range of use cases from computer vision and control.
- Abstract(参考訳): 安全およびセキュリティクリティカルなアプリケーションにおける人工知能への依存の高まりは、効果的なニューラルネットワーク認証を要求する。
現実の難しいユースケースは"パッチアタック(patch attack)"で、敵のパッチや照明条件が画像の不明瞭な部分、例えば交通標識などである。
パッチ攻撃に対する認証に向けた重要なステップは、最近、PreMAPを使用して達成された。
PreMAPアプローチは汎用性があるが、現在は適度な次元を持つ完全に接続されたニューラルネットワークに限られている。
より広い実世界のユースケースに対処するため、より厳密な境界、適応的なモンテカルロサンプリング、分岐ヒューリスティックスの改善を含む新しいアルゴリズム拡張をPreMAPに提示する。
まず、これらの効率改善が元のPreMAPを大幅に上回っており、以前は難解だった畳み込みニューラルネットワークへのスケーリングを可能にしていることを実証する。
第2に,コンピュータビジョンから制御まで,様々なユースケースにおいて,信頼性と堅牢性を解析・証明するための事前近似手法の可能性を示す。
関連論文リスト
- Efficient Reachability Analysis for Convolutional Neural Networks Using Hybrid Zonotopes [4.32258850473064]
フィードフォワードニューラルネットワークの既存の伝播に基づく到達可能性分析手法は、スケーラビリティと精度の両方を達成するのに苦労することが多い。
この研究は、畳み込みニューラルネットワークの到達可能な集合を計算するための、新しいセットベースのアプローチを示す。
論文 参考訳(メタデータ) (2025-03-13T19:45:26Z) - PREMAP: A Unifying PREiMage APproximation Framework for Neural Networks [30.701422594374456]
本稿では,任意の多面体出力集合のアンダー・アンド・オーバー近似を生成する事前抽象化のためのフレームワークを提案する。
提案手法を様々なタスクで評価し,高インプット次元画像分類タスクに対する効率とスケーラビリティの大幅な向上を示す。
論文 参考訳(メタデータ) (2024-08-17T17:24:47Z) - Policy Verification in Stochastic Dynamical Systems Using Logarithmic Neural Certificates [7.9898826915621965]
我々は、リーチエイド仕様に関する離散時間システムに対するニューラルネットワークポリシーの検証について検討する。
このような検証タスクに対する既存のアプローチは、ニューラルネットワークの計算済みリプシッツ定数に依存している。
我々は既存のアプローチよりも小さなリプシッツ定数を得るための2つの重要な貢献を提示する。
論文 参考訳(メタデータ) (2024-06-02T18:19:19Z) - Provable Preimage Under-Approximation for Neural Networks (Full Version) [27.519993407376862]
ニューラルネットワークに対する任意のポリヘドロン出力セットの事前像の記号的アンダー近似を生成するための効率的な時空アルゴリズムを提案する。
実験により,本手法の有効性を,高次元MNIST分類タスクを含む領域にわたって検証した。
我々は,形式的な保証を提供するために,ポリトープ表現の不整合和を利用する,前者のための健全で完全なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-05-05T16:55:27Z) - Certified Interpretability Robustness for Class Activation Mapping [77.58769591550225]
本稿では,解釈可能性マップのためのCORGI(Certifiable prOvable Robustness Guarantees)を提案する。
CORGIは入力画像を取り込み、そのCAM解釈可能性マップのロバスト性に対する証明可能な下限を与えるアルゴリズムである。
交通標識データを用いたケーススタディによるCORGIの有効性を示す。
論文 参考訳(メタデータ) (2023-01-26T18:58:11Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Can pruning improve certified robustness of neural networks? [106.03070538582222]
ニューラルネット・プルーニングはディープ・ニューラル・ネットワーク(NN)の実証的ロバスト性を向上させることができることを示す。
実験の結果,NNを適切に刈り取ることで,その精度を8.2%まで向上させることができることがわかった。
さらに,認証された宝くじの存在が,従来の密集モデルの標準および認証された堅牢な精度に一致することを観察する。
論文 参考訳(メタデータ) (2022-06-15T05:48:51Z) - A Robust Backpropagation-Free Framework for Images [47.97322346441165]
画像データに対するエラーカーネル駆動型アクティベーションアライメントアルゴリズムを提案する。
EKDAAは、ローカルに派生したエラー送信カーネルとエラーマップを導入することで達成される。
結果は、識別不能なアクティベーション機能を利用するEKDAAトレーニングCNNに対して提示される。
論文 参考訳(メタデータ) (2022-06-03T21:14:10Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Robustness against Adversarial Attacks in Neural Networks using
Incremental Dissipativity [3.8673567847548114]
逆例はニューラルネットワークの分類性能を低下させるのが容易である。
本研究は,ニューラルネットワークに対する漸進的拡散性に基づくロバスト性証明を提案する。
論文 参考訳(メタデータ) (2021-11-25T04:42:57Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Bayesian Optimization with Machine Learning Algorithms Towards Anomaly
Detection [66.05992706105224]
本稿では,ベイズ最適化手法を用いた効果的な異常検出フレームワークを提案する。
ISCX 2012データセットを用いて検討したアルゴリズムの性能を評価する。
実験結果から, 精度, 精度, 低コストアラームレート, リコールの観点から, 提案手法の有効性が示された。
論文 参考訳(メタデータ) (2020-08-05T19:29:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。