論文の概要: A Tool for Neural Network Global Robustness Certification and Training
- arxiv url: http://arxiv.org/abs/2208.07289v1
- Date: Mon, 15 Aug 2022 15:58:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-16 14:27:40.309042
- Title: A Tool for Neural Network Global Robustness Certification and Training
- Title(参考訳): ニューラルネットワークのグローバルロバスト性認定とトレーニングのためのツール
- Authors: Zhilu Wang, Yixuan Wang, Feisi Fu, Ruochen Jiao, Chao Huang, Wenchao
Li, Qi Zhu
- Abstract要約: 認定されたグローバルロバストネットワークは、可能なネットワーク入力に対してロバスト性を確保することができる。
最先端のグローバルロバスト性認証アルゴリズムは、数千のニューロンを持つネットワークのみを認証することができる。
本稿では,GPUによるグローバルロバストネス認証フレームワークGROCETを提案する。
- 参考スコア(独自算出の注目度): 12.349979558107496
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the increment of interest in leveraging machine learning technology in
safety-critical systems, the robustness of neural networks under external
disturbance receives more and more concerns. Global robustness is a robustness
property defined on the entire input domain. And a certified globally robust
network can ensure its robustness on any possible network input. However, the
state-of-the-art global robustness certification algorithm can only certify
networks with at most several thousand neurons. In this paper, we propose the
GPU-supported global robustness certification framework GROCET, which is more
efficient than the previous optimization-based certification approach.
Moreover, GROCET provides differentiable global robustness, which is leveraged
in the training of globally robust neural networks.
- Abstract(参考訳): 安全クリティカルなシステムにおいて機械学習技術を活用することへの関心が高まっているため、外乱下でのニューラルネットワークの堅牢性はますます懸念を抱いている。
グローバルロバストネスは入力領域全体に定義されたロバストネス特性である。
そして、認定されたグローバルロバストネットワークは、可能なネットワーク入力に対して堅牢性を確保することができる。
しかし、最先端のグローバルロバストネス認証アルゴリズムは、少なくとも数千のニューロンでしかネットワークを認証できない。
本稿では,GPUによるグローバルロバストネス認証フレームワークGROCETを提案する。
さらにgrocetは、グローバルロバストニューラルネットワークのトレーニングで活用される、微分可能なグローバルロバスト性を提供する。
関連論文リスト
- Certifying Global Robustness for Deep Neural Networks [3.8556106468003613]
グローバルなディープニューラルネットワークは、すべての意味のある入力に対する摂動に抵抗する。
現在のロバストネス認証手法は、局所ロバストネスを強調し、スケールと一般化に苦慮している。
本稿では,ディープニューラルネットワークのグローバルロバスト性を評価・検証するための体系的かつ効率的な手法を提案する。
論文 参考訳(メタデータ) (2024-05-31T00:46:04Z) - The Boundaries of Verifiable Accuracy, Robustness, and Generalisation in Deep Learning [71.14237199051276]
経験的リスクを最小限に抑えるため,古典的な分布に依存しないフレームワークとアルゴリズムを検討する。
理想的な安定かつ正確なニューラルネットワークの計算と検証が極めて難しいタスク群が存在することを示す。
論文 参考訳(メタデータ) (2023-09-13T16:33:27Z) - A Graph Transformer-Driven Approach for Network Robustness Learning [27.837847091520842]
本稿では, グラフ変換器(NRL-GT)を用いた多目的で統一的なロバストネス学習手法を提案する。
NRL-GTは、複数の側面から制御可能性堅牢性学習と接続性堅牢性学習のタスクを達成する。
また、学習エラーが低く、高い効率で、異なるサイズの複雑なネットワークを扱うこともできる。
論文 参考訳(メタデータ) (2023-06-12T07:34:21Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Can pruning improve certified robustness of neural networks? [106.03070538582222]
ニューラルネット・プルーニングはディープ・ニューラル・ネットワーク(NN)の実証的ロバスト性を向上させることができることを示す。
実験の結果,NNを適切に刈り取ることで,その精度を8.2%まで向上させることができることがわかった。
さらに,認証された宝くじの存在が,従来の密集モデルの標準および認証された堅牢な精度に一致することを観察する。
論文 参考訳(メタデータ) (2022-06-15T05:48:51Z) - Efficient Global Robustness Certification of Neural Networks via
Interleaving Twin-Network Encoding [8.173681464694651]
混合整数線形プログラミング(MILP)問題として、ReLUアクティベーション機能付きニューラルネットワークのグローバルロバスト性認証を定式化する。
我々のアプローチは、ニューラルネットワークの2つのコピーを並べて符号化する、新しいインターリービングツインネットワーク符号化スキームを含む。
クローズドループ制御の安全性検証のケーススタディを行い,本手法の重要性と実用性を実証した。
論文 参考訳(メタデータ) (2022-03-26T19:23:37Z) - Learning Structures for Deep Neural Networks [99.8331363309895]
我々は,情報理論に根ざし,計算神経科学に発達した効率的な符号化原理を採用することを提案する。
スパース符号化は出力信号のエントロピーを効果的に最大化できることを示す。
公開画像分類データセットを用いた実験により,提案アルゴリズムでスクラッチから学習した構造を用いて,最も優れた専門家設計構造に匹敵する分類精度が得られることを示した。
論文 参考訳(メタデータ) (2021-05-27T12:27:24Z) - Globally-Robust Neural Networks [21.614262520734595]
我々は、オンラインローカルロバストネス認証の運用特性を捉えた、グローバルロバストネスの概念を定式化する。
効率的なグローバルLipschitz境界をネットワークに組み込むことにより、広く使用されているアーキテクチャをこの目的に容易に適応できることを示します。
論文 参考訳(メタデータ) (2021-02-16T21:10:52Z) - Decentralized Control with Graph Neural Networks [147.84766857793247]
分散コントローラを学習するグラフニューラルネットワーク(GNN)を用いた新しいフレームワークを提案する。
GNNは、自然分散アーキテクチャであり、優れたスケーラビリティと転送性を示すため、タスクに適している。
分散コントローラの学習におけるGNNの可能性を説明するために、群れとマルチエージェントパス計画の問題を検討する。
論文 参考訳(メタデータ) (2020-12-29T18:59:14Z) - Global Robustness Verification Networks [33.52550848953545]
3つのコンポーネントからなるグローバルロバストネス検証フレームワークを開発した。
実現可能なルールベースのバックプロパゲーションを可能にする新しいネットワークアーキテクチャ Sliding Door Network (SDN)
合成データと実データの両方にアプローチの有効性を示す。
論文 参考訳(メタデータ) (2020-06-08T08:09:20Z) - Generative Adversarial Imitation Learning with Neural Networks: Global
Optimality and Convergence Rate [122.73276299136568]
ジェネレーティブポリシー模倣学習(GAIL)は、特にニューラルネットワークと組み合わせた場合、実際に非常に成功している。
実験的な成功にもかかわらず、GAILとニューラルネットワークがグローバルな最適解に収束するかどうかは不明だ。
論文 参考訳(メタデータ) (2020-03-08T03:39:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。