論文の概要: End-To-End Set-Based Training for Neural Network Verification
- arxiv url: http://arxiv.org/abs/2401.14961v1
- Date: Fri, 26 Jan 2024 15:52:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-29 14:39:03.354110
- Title: End-To-End Set-Based Training for Neural Network Verification
- Title(参考訳): ニューラルネットワーク検証のためのエンドツーエンドセットベーストレーニング
- Authors: Lukas Koller, Tobias Ladner, Matthias Althoff
- Abstract要約: 安全に重要な環境は、入力の摂動に対して堅牢なニューラルネットワークを必要とする。
我々は、堅牢なニューラルネットワークをトレーニングして正式な検証を行う、エンドツーエンドのセットベーストレーニング手順を採用している。
多くの場合、セットベースでトレーニングされたニューラルネットワークは、最先端の敵攻撃でトレーニングされたニューラルネットワークより優れている。
- 参考スコア(独自算出の注目度): 10.089345165782918
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural networks are vulnerable to adversarial attacks, i.e., small input
perturbations can result in substantially different outputs of a neural
network. Safety-critical environments require neural networks that are robust
against input perturbations. However, training and formally verifying robust
neural networks is challenging. We address this challenge by employing, for the
first time, a end-to-end set-based training procedure that trains robust neural
networks for formal verification. Our training procedure drastically simplifies
the subsequent formal robustness verification of the trained neural network.
While previous research has predominantly focused on augmenting neural network
training with adversarial attacks, our approach leverages set-based computing
to train neural networks with entire sets of perturbed inputs. Moreover, we
demonstrate that our set-based training procedure effectively trains robust
neural networks, which are easier to verify. In many cases, set-based trained
neural networks outperform neural networks trained with state-of-the-art
adversarial attacks.
- Abstract(参考訳): ニューラルネットワークは敵の攻撃に弱い、すなわち小さな入力摂動は、ニューラルネットワークの出力を著しく異なるものにすることができる。
安全に重要な環境は、入力の摂動に対して堅牢なニューラルネットワークを必要とする。
しかし、堅牢なニューラルネットワークのトレーニングと正式に検証は困難である。
我々は、形式的検証のために堅牢なニューラルネットワークをトレーニングするエンドツーエンドのセットベースのトレーニング手順を初めて採用することで、この課題に対処します。
トレーニング手順は、トレーニングされたニューラルネットワークの形式的ロバスト性検証を劇的に単純化する。
これまでの研究は主に、ニューラルネットワークのトレーニングを敵の攻撃で強化することに注力してきたが、このアプローチでは、セットベースのコンピューティングを利用して、摂動入力のセット全体をニューラルネットワークで訓練する。
さらに,本手法は,検証が容易な頑健なニューラルネットワークを効果的に学習できることを実証する。
多くの場合、セットベースでトレーニングされたニューラルネットワークは、最先端の敵攻撃でトレーニングされたニューラルネットワークより優れている。
関連論文リスト
- Expediting Neural Network Verification via Network Reduction [4.8621567234713305]
本稿では,検証前の事前処理手法として,ネットワーク削減手法を提案する。
提案手法は、安定なReLUニューロンを除去し、それらをシーケンシャルなニューラルネットワークに変換することにより、ニューラルネットワークを削減する。
我々は、最先端の完全および不完全検証ツールの縮小手法をインスタンス化する。
論文 参考訳(メタデータ) (2023-08-07T06:23:24Z) - Fully Automatic Neural Network Reduction for Formal Verification [8.017543518311196]
到達可能性解析を用いたニューラルネットワークの完全自動・音量低減手法を提案する。
音質は、低減されたネットワークの検証が元のネットワークの検証を必要とすることを保証します。
提案手法は, ニューロンの数を, 小さい外近似で, 元のニューロン数のごく一部に減らすことができることを示す。
論文 参考訳(メタデータ) (2023-05-03T07:13:47Z) - Neural Clamping: Joint Input Perturbation and Temperature Scaling for Neural Network Calibration [62.4971588282174]
我々はニューラルクランプ法と呼ばれる新しい後処理キャリブレーション法を提案する。
実験の結果,Neural Clampingは最先端の処理後のキャリブレーション法よりも優れていた。
論文 参考訳(メタデータ) (2022-09-23T14:18:39Z) - Can pruning improve certified robustness of neural networks? [106.03070538582222]
ニューラルネット・プルーニングはディープ・ニューラル・ネットワーク(NN)の実証的ロバスト性を向上させることができることを示す。
実験の結果,NNを適切に刈り取ることで,その精度を8.2%まで向上させることができることがわかった。
さらに,認証された宝くじの存在が,従来の密集モデルの標準および認証された堅牢な精度に一致することを観察する。
論文 参考訳(メタデータ) (2022-06-15T05:48:51Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Verifying Low-dimensional Input Neural Networks via Input Quantization [12.42030531015912]
本稿では,ACAS Xu ネットワーク検証の当初の問題を再考する。
本稿では,入力量子化層をネットワークにプリペイドすることを提案する。
本手法は,浮動小数点誤差に耐性のない正確な検証結果を提供する。
論文 参考訳(メタデータ) (2021-08-18T03:42:05Z) - SignalNet: A Low Resolution Sinusoid Decomposition and Estimation
Network [79.04274563889548]
本稿では,正弦波数を検出するニューラルネットワークアーキテクチャであるSignalNetを提案する。
基礎となるデータ分布と比較して,ネットワークの結果を比較するための最悪の学習しきい値を導入する。
シミュレーションでは、我々のアルゴリズムは常に3ビットデータのしきい値を超えることができるが、しばしば1ビットデータのしきい値を超えることはできない。
論文 参考訳(メタデータ) (2021-06-10T04:21:20Z) - Performance Bounds for Neural Network Estimators: Applications in Fault
Detection [2.388501293246858]
ニューラルネットワークの堅牢性を定量化し,モデルに基づく異常検知器の構築とチューニングを行った。
チューニングでは,通常動作で想定される誤報発生率の上限を具体的に提示する。
論文 参考訳(メタデータ) (2021-03-22T19:23:08Z) - Artificial Neural Networks generated by Low Discrepancy Sequences [59.51653996175648]
我々は、高密度ネットワークグラフ上のランダムウォーキングとして、人工ニューラルネットワークを生成する。
このようなネットワークはスクラッチからスパースを訓練することができ、高密度ネットワークをトレーニングし、その後圧縮する高価な手順を避けることができる。
我々は,低差分シーケンスで生成された人工ニューラルネットワークが,より低い計算複雑性で,密度の高いニューラルネットワークの到達範囲内で精度を達成できることを実証した。
論文 参考訳(メタデータ) (2021-03-05T08:45:43Z) - Reduced-Order Neural Network Synthesis with Robustness Guarantees [0.0]
機械学習アルゴリズムは、デバイスがユーザのプライバシを改善し、レイテンシを低減し、エネルギー効率を高めるために、ローカルで実行するように適応されている。
この問題に対処するために、より大きなニューロンの入出力マッピングを近似する低次ニューラルネットワーク(ニューロンが少ない)を自動的に合成する手法を導入する。
この近似誤差に対する最悪の境界が得られ、このアプローチは幅広いニューラルネットワークアーキテクチャに適用することができる。
論文 参考訳(メタデータ) (2021-02-18T12:03:57Z) - Resolution Adaptive Networks for Efficient Inference [53.04907454606711]
本稿では,低分解能表現が「容易」な入力を分類するのに十分である,という直感に触発された新しいレゾリューション適応ネットワーク(RANet)を提案する。
RANetでは、入力画像はまず、低解像度表現を効率的に抽出する軽量サブネットワークにルーティングされる。
ネットワーク内の高解像度パスは、"ハード"サンプルを認識する能力を維持している。
論文 参考訳(メタデータ) (2020-03-16T16:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。