論文の概要: Verifying rich robustness properties for neural networks
- arxiv url: http://arxiv.org/abs/2511.07293v1
- Date: Mon, 10 Nov 2025 16:43:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:45.374344
- Title: Verifying rich robustness properties for neural networks
- Title(参考訳): ニューラルネットワークのリッチロバスト性検証
- Authors: Mohammad Afzal, S. Akshay, Ashutosh Gupta,
- Abstract要約: ロバストネスはAIのアライメントと安全性の問題であり、ニューラルネットワークのようなモデルが安全クリティカルなシステムでますます使われている。
本稿では,ニューラルネットワーク検証におけるロバスト性の変種を特定し,検証するためのフレームワークを提案する。
我々は,これらすべての変種を均質な方法で検証する,新規で強力な統一手法を開発した。
- 参考スコア(独自算出の注目度): 4.642283627168068
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Robustness is a important problem in AI alignment and safety, with models such as neural networks being increasingly used in safety-critical systems. In the last decade, a large body of work has emerged on local robustness, i.e., checking if the decision of a neural network remains unchanged when the input is slightly perturbed. However, many of these approaches require specialized encoding and often ignore the confidence of a neural network on its output. In this paper, our goal is to build a generalized framework to specify and verify variants of robustness in neural network verification. We propose a specification framework using a simple grammar, which is flexible enough to capture most existing variants. This allows us to introduce new variants of robustness that take into account the confidence of the neural network in its outputs. Next, we develop a novel and powerful unified technique to verify all such variants in a homogeneous way, viz., by adding a few additional layers to the neural network. This enables us to use any state-of-the-art neural network verification tool, without having to tinker with the encoding within, while incurring an approximation error that we show is bounded. We perform an extensive experimental evaluation over a large suite of 8870 benchmarks having 138M parameters in a largest network, and show that we are able to capture a wide set of robustness variants and outperform direct encoding approaches by a significant margin.
- Abstract(参考訳): ロバストネスはAIのアライメントと安全性において重要な問題であり、ニューラルネットワークのようなモデルが安全クリティカルなシステムでますます利用されている。
過去10年間で、局所的な堅牢性、すなわち入力がわずかに乱れたときにニューラルネットワークの決定が変化しないかどうかを確認するために、大きな仕事が現れた。
しかしながら、これらのアプローチの多くは、特殊なエンコーディングを必要とし、その出力に対するニューラルネットワークの信頼性を無視することが多い。
本稿では,ニューラルネットワーク検証におけるロバスト性の変種を特定し,検証するための汎用フレームワークを構築することを目的とする。
既存のほとんどの変種を捉えるのに十分な柔軟性を持つ,単純な文法を用いた仕様フレームワークを提案する。
これにより、出力におけるニューラルネットワークの信頼性を考慮して、ロバストネスの新しいバリエーションを導入することができます。
次に、ニューラルネットワークにいくつかの追加レイヤを追加することにより、これらすべての変種を均質な方法で検証する、新しく強力な統一手法を開発する。
これにより、私たちが示す近似誤差を発生させながら、内部のエンコーディングをいじることなく、最先端のニューラルネットワーク検証ツールを使用できるようになる。
我々は,大規模ネットワークにおいて128万のパラメータを持つ8870ベンチマークの大規模なスイートに対して,広範な実験的な評価を行い,多数のロバスト性変種を捕捉し,直接符号化手法を大幅なマージンで上回ることを示す。
関連論文リスト
- NCCR: to Evaluate the Robustness of Neural Networks and Adversarial Examples [11.038285179317114]
本研究では, ニューラルネットワーク被覆変化率 (NCCR) と呼ばれる, 攻撃に対する深層学習モデルの能力を測定する指標を提案する。
NCCRは入力が摂動されたとき、特定の選択されたニューロンの出力の変化を監視する。
画像認識実験と話者認識モデルの結果から,ニューラルネットワークやその入力のロバスト性を評価するための指標が得られた。
論文 参考訳(メタデータ) (2025-07-29T03:58:20Z) - Convex neural network synthesis for robustness in the 1-norm [0.0]
本稿では,より堅牢なニューラルネットワークの近似を生成する手法を提案する。
モデル予測制御の堅牢化への応用は、その結果を示すために用いられる。
論文 参考訳(メタデータ) (2024-05-29T12:17:09Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Can pruning improve certified robustness of neural networks? [106.03070538582222]
ニューラルネット・プルーニングはディープ・ニューラル・ネットワーク(NN)の実証的ロバスト性を向上させることができることを示す。
実験の結果,NNを適切に刈り取ることで,その精度を8.2%まで向上させることができることがわかった。
さらに,認証された宝くじの存在が,従来の密集モデルの標準および認証された堅牢な精度に一致することを観察する。
論文 参考訳(メタデータ) (2022-06-15T05:48:51Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Towards Repairing Neural Networks Correctly [6.600380575920419]
本稿では,ニューラルネットワークの正確性を保証するための実行時検証手法を提案する。
実験結果から,本手法は特性を満たすことが保証されたニューラルネットワークを効果的に生成することが示された。
論文 参考訳(メタデータ) (2020-12-03T12:31:07Z) - Verifying Recurrent Neural Networks using Invariant Inference [0.0]
本稿では,リカレントニューラルネットワーク(Recurrent Neural Network)と呼ばれる,ニューラルネットワークの多種多様な特性を検証するための新しいアプローチを提案する。
この手法は不変量の推論に基づいており、再帰的ネットワークを単純かつ非再帰的な問題に検証する際の複雑な問題を軽減できる。
論文 参考訳(メタデータ) (2020-04-06T08:08:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。