論文の概要: Enabling certification of verification-agnostic networks via
memory-efficient semidefinite programming
- arxiv url: http://arxiv.org/abs/2010.11645v2
- Date: Tue, 3 Nov 2020 17:48:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 05:22:12.495496
- Title: Enabling certification of verification-agnostic networks via
memory-efficient semidefinite programming
- Title(参考訳): メモリ効率半定義型プログラミングによる検証非依存ネットワークの認証の実現
- Authors: Sumanth Dathathri, Krishnamurthy Dvijotham, Alexey Kurakin, Aditi
Raghunathan, Jonathan Uesato, Rudy Bunel, Shreya Shankar, Jacob Steinhardt,
Ian Goodfellow, Percy Liang, Pushmeet Kohli
- Abstract要約: 本稿では,ネットワークアクティベーションの総数にのみ線形なメモリを必要とする一階二重SDPアルゴリズムを提案する。
L-inf の精度は 1% から 88% ,6% から 40% に改善した。
また,変分オートエンコーダの復号器に対する2次安定性仕様の厳密な検証を行った。
- 参考スコア(独自算出の注目度): 97.40955121478716
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convex relaxations have emerged as a promising approach for verifying
desirable properties of neural networks like robustness to adversarial
perturbations. Widely used Linear Programming (LP) relaxations only work well
when networks are trained to facilitate verification. This precludes
applications that involve verification-agnostic networks, i.e., networks not
specially trained for verification. On the other hand, semidefinite programming
(SDP) relaxations have successfully be applied to verification-agnostic
networks, but do not currently scale beyond small networks due to poor time and
space asymptotics. In this work, we propose a first-order dual SDP algorithm
that (1) requires memory only linear in the total number of network
activations, (2) only requires a fixed number of forward/backward passes
through the network per iteration. By exploiting iterative eigenvector methods,
we express all solver operations in terms of forward and backward passes
through the network, enabling efficient use of hardware like GPUs/TPUs. For two
verification-agnostic networks on MNIST and CIFAR-10, we significantly improve
L-inf verified robust accuracy from 1% to 88% and 6% to 40% respectively. We
also demonstrate tight verification of a quadratic stability specification for
the decoder of a variational autoencoder.
- Abstract(参考訳): 凸緩和は、敵の摂動に対する堅牢性のようなニューラルネットワークの望ましい性質を検証するための有望なアプローチとして現れている。
広く使われている線形プログラミング(LP)の緩和は、ネットワークが検証を容易にするために訓練された場合にのみうまく機能する。
これは、検証に依存しないネットワーク、すなわち、検証のために特別に訓練されていないネットワークを含むアプリケーションを妨げる。
一方、半定値プログラミング(SDP)緩和は検証非依存のネットワークにうまく適用されているが、時間と空間の漸近が貧弱なため、現在は小さなネットワークを超えてスケールしていない。
本研究では,(1) ネットワークアクティベーションの総数に対してメモリのみを線形に要求し,(2) 繰り返し毎にネットワークを経由する前方/後方パスの固定数だけを要求する,一階二重SDPアルゴリズムを提案する。
逐次固有ベクトル法を用いることで,ネットワークを経由する前方および後方通過の観点から,すべてのソルバ演算を表現し,GPUやTPUなどのハードウェアの効率的な利用を可能にする。
MNIST と CIFAR-10 の2つの検証非依存ネットワークにおいて,L-inf の精度は 1% から 88% と 6% から 40% に向上した。
また,変分オートエンコーダのデコーダに対する二次安定性仕様の厳密な検証を行う。
関連論文リスト
- Optimization Guarantees of Unfolded ISTA and ADMM Networks With Smooth
Soft-Thresholding [57.71603937699949]
我々は,学習エポックの数の増加とともに,ほぼゼロに近いトレーニング損失を達成するための最適化保証について検討した。
トレーニングサンプル数に対する閾値は,ネットワーク幅の増加とともに増加することを示す。
論文 参考訳(メタデータ) (2023-09-12T13:03:47Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - A Simple Approach to Improve Single-Model Deep Uncertainty via
Distance-Awareness [33.09831377640498]
本研究では,1つの決定論的表現に基づく1つのネットワークの不確実性向上手法について検討する。
本稿では,現代のDNNにおける距離認識能力を向上させる簡易な手法として,スペクトル正規化ニューラルガウス過程(SNGP)を提案する。
ビジョンと言語理解のベンチマークスイートでは、SNGPは予測、キャリブレーション、ドメイン外検出において、他の単一モデルアプローチよりも優れている。
論文 参考訳(メタデータ) (2022-05-01T05:46:13Z) - Efficient Integer-Arithmetic-Only Convolutional Neural Networks [87.01739569518513]
我々は従来のReLUを境界ReLUに置き換え、その減少は活性化量子化によるものであることを示す。
我々の整数ネットワークは、対応するFPNネットワークと同等の性能を発揮するが、メモリコストは1/4に過ぎず、最新のGPUでは2倍高速である。
論文 参考訳(メタデータ) (2020-06-21T08:23:03Z) - Network Adjustment: Channel Search Guided by FLOPs Utilization Ratio [101.84651388520584]
本稿では,ネットワークの精度をFLOPの関数として考慮した,ネットワーク調整という新しいフレームワークを提案する。
標準画像分類データセットと幅広いベースネットワークの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-04-06T15:51:00Z) - Compressing deep neural networks on FPGAs to binary and ternary
precision with HLS4ML [13.325670094073383]
本稿では, hls4mlライブラリにおける2次ニューラルネットワークと3次ニューラルネットワークの実装について述べる。
モデル精度と資源消費のトレードオフについて論じる。
二分法と三分法の実装は、FPGAリソースを劇的に減らしながら高い精度の実装と類似した性能を持つ。
論文 参考訳(メタデータ) (2020-03-11T10:46:51Z) - ReActNet: Towards Precise Binary Neural Network with Generalized
Activation Functions [76.05981545084738]
本稿では,新たな計算コストを伴わずに,実数値ネットワークからの精度ギャップを埋めるため,バイナリネットワークを強化するためのいくつかのアイデアを提案する。
まず,パラメータフリーのショートカットを用いて,コンパクトな実数値ネットワークを修正・バイナライズすることで,ベースラインネットワークを構築する。
提案したReActNetはすべての最先端技術よりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2020-03-07T02:12:02Z) - ReluDiff: Differential Verification of Deep Neural Networks [8.601847909798165]
我々は2つの密接に関連するネットワークの差分検証法を開発した。
我々は2つのネットワークの構造的および行動的類似性を利用して、2つのネットワークの出力ニューロン間の差異をより正確に拘束する。
実験の結果,最先端の検証ツールと比較して,精度向上が可能であることがわかった。
論文 参考訳(メタデータ) (2020-01-10T20:47:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。