論文の概要: Set-Based Training for Neural Network Verification
- arxiv url: http://arxiv.org/abs/2401.14961v3
- Date: Tue, 14 Jan 2025 08:56:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-15 13:25:19.213651
- Title: Set-Based Training for Neural Network Verification
- Title(参考訳): ニューラルネットワーク検証のためのセットベーストレーニング
- Authors: Lukas Koller, Tobias Ladner, Matthias Althoff,
- Abstract要約: 小さな入力摂動はニューラルネットワークの出力に大きな影響を与える。
安全クリティカルな環境の安全性を確保するためには、ニューラルネットワークの堅牢性を検証する必要がある。
本稿では,可能な出力の集合を計算するための,新しいセットベーストレーニング手順を提案する。
- 参考スコア(独自算出の注目度): 8.97708612393722
- License:
- Abstract: Neural networks are vulnerable to adversarial attacks, i.e., small input perturbations can significantly affect the outputs of a neural network. Therefore, to ensure safety of safety-critical environments, the robustness of a neural network must be formally verified against input perturbations, e.g., from noisy sensors. To improve the robustness of neural networks and thus simplify the formal verification, we present a novel set-based training procedure in which we compute the set of possible outputs given the set of possible inputs and compute for the first time a gradient set, i.e., each possible output has a different gradient. Therefore, we can directly reduce the size of the output enclosure by choosing gradients toward its center. Small output enclosures increase the robustness of a neural network and, at the same time, simplify its formal verification. The latter benefit is due to the fact that a larger size of propagated sets increases the conservatism of most verification methods. Our extensive evaluation demonstrates that set-based training produces robust neural networks with competitive performance, which can be verified using fast (polynomial-time) verification algorithms due to the reduced output set.
- Abstract(参考訳): ニューラルネットワークは敵の攻撃に弱いため、小さな入力摂動はニューラルネットワークの出力に大きな影響を及ぼす可能性がある。
したがって、安全クリティカル環境の安全性を確保するため、ニューラルネットワークの堅牢性は、ノイズの多いセンサからの入力摂動に対して正式に検証する必要がある。
ニューラルネットワークのロバスト性を向上し,形式的検証を簡略化するために,可能な入力のセットから可能な出力のセットを計算し,初めてグラデーションセットを演算する,新たなセットベースのトレーニング手順を提案する。
したがって、出力囲いの大きさを中央への勾配を選択することで、直接的に小さくすることができる。
小さな出力囲いは、ニューラルネットワークの堅牢性を高め、同時にその形式的検証を簡素化する。
後者の利点は、プロパゲート集合のより大きなサイズが、ほとんどの検証方法の保守性を高めるという事実にある。
提案手法は, 高速(ポリノミカル時間)検定アルゴリズムを用いて, 出力の削減により検証可能な, 競争性能の高い堅牢なニューラルネットワークを実現することを示すものである。
関連論文リスト
- Verified Neural Compressed Sensing [58.98637799432153]
精度の高い計算タスクのために、初めて(私たちの知識を最大限に活用するために)証明可能なニューラルネットワークを開発します。
極小問題次元(最大50)では、線形および双項線形測定からスパースベクトルを確実に回復するニューラルネットワークを訓練できることを示す。
ネットワークの複雑さは問題の難易度に適応できることを示し、従来の圧縮センシング手法が証明不可能な問題を解く。
論文 参考訳(メタデータ) (2024-05-07T12:20:12Z) - NeuralFastLAS: Fast Logic-Based Learning from Raw Data [54.938128496934695]
シンボリック・ルール学習者は解釈可能な解を生成するが、入力を記号的に符号化する必要がある。
ニューロシンボリックアプローチは、ニューラルネットワークを使用して生データを潜在シンボリック概念にマッピングすることで、この問題を克服する。
我々は,ニューラルネットワークを記号学習者と共同でトレーニングする,スケーラブルで高速なエンドツーエンドアプローチであるNeuralFastLASを紹介する。
論文 参考訳(メタデータ) (2023-10-08T12:33:42Z) - Adversarial Training Using Feedback Loops [1.6114012813668932]
ディープニューラルネットワーク(DNN)は、一般化性に制限があるため、敵の攻撃に非常に敏感である。
本稿では制御理論に基づく新しいロバスト化手法を提案する。
フィードバック制御アーキテクチャに基づく新しい逆行訓練アプローチは、フィードバックループ逆行訓練(FLAT)と呼ばれる。
論文 参考訳(メタデータ) (2023-08-23T02:58:02Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Building Compact and Robust Deep Neural Networks with Toeplitz Matrices [93.05076144491146]
この論文は、コンパクトで、訓練が容易で、信頼性があり、敵の例に対して堅牢なニューラルネットワークを訓練する問題に焦点を当てている。
Toeplitzファミリーの構造化行列の特性を利用して、コンパクトでセキュアなニューラルネットワークを構築する。
論文 参考訳(メタデータ) (2021-09-02T13:58:12Z) - ASAT: Adaptively Scaled Adversarial Training in Time Series [21.65050910881857]
金融分野を例に挙げて,時系列分析における対戦訓練の導入に向けて第一歩を踏み出した。
時系列解析において,異なる時間スロットにおけるデータを時間依存の重み付きで扱うことにより,適応的スケールの対位訓練(ASAT)を提案する。
実験の結果,提案したASATはニューラルネットワークの精度と対角的堅牢性の両方を向上できることがわかった。
論文 参考訳(メタデータ) (2021-08-20T03:13:34Z) - Towards Repairing Neural Networks Correctly [6.600380575920419]
本稿では,ニューラルネットワークの正確性を保証するための実行時検証手法を提案する。
実験結果から,本手法は特性を満たすことが保証されたニューラルネットワークを効果的に生成することが示された。
論文 参考訳(メタデータ) (2020-12-03T12:31:07Z) - An SMT-Based Approach for Verifying Binarized Neural Networks [1.4394939014120451]
本稿では,SMTを用いた二元化ニューラルネットワークの検証手法を提案する。
我々の手法の1つの新しい点は、二項化コンポーネントと非二項化コンポーネントの両方を含むニューラルネットワークの検証を可能にすることである。
我々は、この手法をマラブーフレームワークの拡張として実装し、一般的な二項化ニューラルネットワークアーキテクチャのアプローチを評価する。
論文 参考訳(メタデータ) (2020-11-05T16:21:26Z) - Feature Purification: How Adversarial Training Performs Robust Deep
Learning [66.05472746340142]
ニューラルネットワークのトレーニングプロセス中に隠れた重みに、特定の小さな密度の混合物が蓄積されることが、敵の例の存在の原因の1つであることを示す。
この原理を説明するために、CIFAR-10データセットの両実験と、ある自然な分類タスクに対して、ランダムな勾配勾配勾配を用いた2層ニューラルネットワークをトレーニングすることを証明する理論的結果を示す。
論文 参考訳(メタデータ) (2020-05-20T16:56:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。