論文の概要: Fast BATLLNN: Fast Box Analysis of Two-Level Lattice Neural Networks
- arxiv url: http://arxiv.org/abs/2111.09293v1
- Date: Wed, 17 Nov 2021 18:46:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-18 14:49:07.381482
- Title: Fast BATLLNN: Fast Box Analysis of Two-Level Lattice Neural Networks
- Title(参考訳): fast batllnn: 2レベル格子ニューラルネットワークの高速ボックス解析
- Authors: James Ferlez and Haitham Khedr and Yasser Shoukry
- Abstract要約: 高速BATLLNNは、2レベル格子(TLL)ニューラルネットワーク(NN)のためのボックスライクな出力制約の高速検証器である
Fast BATLLNNは、最も高速なNN検証器でさえも非常に好意的に比較し、私たちの合成TLLテストベンチは、最も近い競合製品よりも400倍以上高速です。
- 参考スコア(独自算出の注目度): 1.6500749121196987
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present the tool Fast Box Analysis of Two-Level Lattice
Neural Networks (Fast BATLLNN) as a fast verifier of box-like output
constraints for Two-Level Lattice (TLL) Neural Networks (NNs). In particular,
Fast BATLLNN can verify whether the output of a given TLL NN always lies within
a specified hyper-rectangle whenever its input constrained to a specified
convex polytope (not necessarily a hyper-rectangle). Fast BATLLNN uses the
unique semantics of the TLL architecture and the decoupled nature of box-like
output constraints to dramatically improve verification performance relative to
known polynomial-time verification algorithms for TLLs with generic polytopic
output constraints. In this paper, we evaluate the performance and scalability
of Fast BATLLNN, both in its own right and compared to state-of-the-art NN
verifiers applied to TLL NNs. Fast BATLLNN compares very favorably to even the
fastest NN verifiers, completing our synthetic TLL test bench more than 400x
faster than its nearest competitor.
- Abstract(参考訳): 本稿では,2レベル格子ニューラルネットワーク(TLL)の出力制約を高速に検証するツールとして,Fast Box Analysis of Two-Level Lattice Neural Networks (Fast BATLLNN)を提案する。
特に、Fast BATLLNNは、与えられたTLL NNの出力が指定された凸ポリトープ(必ずしも超矩形ではない)に制限された入力が常に指定された超矩形内にあるかどうかを検証できる。
Fast BATLLNNは、TLLアーキテクチャのユニークなセマンティクスとボックスライクな出力制約の分離特性を用いて、一般的なポリトピー出力制約を持つTLLに対する既知の多項式時間検証アルゴリズムと比較して、検証性能を劇的に改善する。
本稿では,Fast BATLLNNの性能とスケーラビリティを,TLL NNに適用した最先端NN検証と比較して評価する。
Fast BATLLNNは、最も高速なNN検証器でさえも非常に好意的に比較し、私たちの合成TLLテストベンチは、最も近い競合製品よりも400倍以上高速です。
関連論文リスト
- Towards General Robustness Verification of MaxPool-based Convolutional Neural Networks via Tightening Linear Approximation [51.235583545740674]
MaxLinは、線形近似が厳密なMaxPoolベースのCNNの堅牢性検証器である。
我々は、MNIST、CIFAR-10、Tiny ImageNetデータセットでトレーニングされたLeNetやネットワークを含むオープンソースのベンチマークでMaxLinを評価した。
論文 参考訳(メタデータ) (2024-06-02T10:33:04Z) - Compacting Binary Neural Networks by Sparse Kernel Selection [58.84313343190488]
本稿は,BNNにおけるバイナリカーネルの分散化がほぼ不可能であることを示すものである。
我々は、選択過程をエンドツーエンドに最適化するだけでなく、選択したコードワードの非反復的占有を維持できる置換ストレートスルー推定器(PSTE)を開発した。
実験により,提案手法はモデルサイズとビット幅の計算コストの両方を削減し,同等の予算下での最先端のBNNと比較して精度の向上を実現する。
論文 参考訳(メタデータ) (2023-03-25T13:53:02Z) - Polynomial-Time Reachability for LTI Systems with Two-Level Lattice
Neural Network Controllers [1.4620086904601473]
本稿では,Rectified Linear Unit (ReLU) Two-Level Lattice (TLL) Neural Network (NN) コントローラのサイズで,正確なワンステップ到達可能なセットを時間で計算可能であることを示す。
そこで本研究では,L-TLLBoxと呼ばれる,半エクサビリティと近似リーチビリティの利点を適応的に組み合わせたアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-09-20T01:12:31Z) - Truth-Table Net: A New Convolutional Architecture Encodable By Design
Into SAT Formulas [6.445605125467575]
本稿では,SAT-Encodable モデルの新たなファミリである Truth Table Deep Convolutional Neural Networks (TTnets) を紹介する。
TTnetは、タイムアウトなしで完了した高速な検証時間で高い精度を達成する。
TTnetは様々なCNNアーキテクチャに適用でき、公平性、障害攻撃、厳密なルール抽出など他の特性にも拡張できると仮定する。
論文 参考訳(メタデータ) (2022-08-18T03:06:25Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Logic Shrinkage: Learned FPGA Netlist Sparsity for Efficient Neural
Network Inference [3.2296078260106174]
本稿では,LUTに基づくトポロジの学習最適化を提案する。
既存のアーキテクチャの実装では、LUT, Kあたりの入力数を手動で指定する必要がある。
本稿では,FPGA推論を対象とするニューラルネットワークにおいて,各LUTに対してKを自動的に学習することのできる,詳細なネットリスト解析手法である論理縮小手法を提案する。
論文 参考訳(メタデータ) (2021-12-04T14:23:24Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - Fast and Complete: Enabling Complete Neural Network Verification with
Rapid and Massively Parallel Incomplete Verifiers [112.23981192818721]
BaB プロセス中に線形計画法 (LP) を置き換えるために, 逆モード線形緩和に基づく解析法 (LiRPA) を提案する。
LPとは異なり、LiRPAを適用すると、より弱い境界が得られ、分割時にサブドメインのコンフリクトをチェックすることもできない。
既存のLPベースのアプローチと比較して、桁違いのスピードアップを示す。
論文 参考訳(メタデータ) (2020-11-27T16:42:12Z) - FATNN: Fast and Accurate Ternary Neural Networks [89.07796377047619]
Ternary Neural Networks (TNN) は、完全な精度のニューラルネットワークよりもはるかに高速で、電力効率が高いため、多くの注目を集めている。
そこで本研究では、3次内積の計算複雑性を2。
性能ギャップを軽減するために,実装に依存した3次量子化アルゴリズムを精巧に設計する。
論文 参考訳(メタデータ) (2020-08-12T04:26:18Z) - Efficient Exact Verification of Binarized Neural Networks [15.639601066641099]
バイナリニューラルネットワーク(BNN)は、同等の堅牢性を提供し、正確かつはるかに効率的な検証を可能にする。
我々は,BNNの効率的かつ正確な検証を行うための新しいシステムであるEEVを提案する。
非自明な畳み込みBNNのL-inf-bounded adversarial robustnessに対する最初の正確な検証結果を示すことにより、脳波の有効性を実証する。
論文 参考訳(メタデータ) (2020-05-07T16:34:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。