論文の概要: Abstract Neural Networks
- arxiv url: http://arxiv.org/abs/2009.05660v1
- Date: Fri, 11 Sep 2020 21:17:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 21:16:17.810852
- Title: Abstract Neural Networks
- Title(参考訳): 抽象ニューラルネットワーク
- Authors: Matthew Sotoudeh and Aditya V. Thakur
- Abstract要約: 本稿では,Deep Neural Networks (DNN) の音響的オーバー近似に使用できる抽象ニューラルネットワーク (ANN) の概念を紹介する。
本稿では、DNNで使用される抽象ドメインとアクティベーション関数によってパラメータ化され、対応するANNを構築するのに使用できるフレームワークを提案する。
我々のフレームワークは、オクタゴンやポリヘドラといった他の抽象ドメインや、Leaky ReLU、Sigmoid、Hyperbolic Tangentといった他のアクティベーション関数とインスタンス化することができる。
- 参考スコア(独自算出の注目度): 7.396342576390398
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks (DNNs) are rapidly being applied to safety-critical
domains such as drone and airplane control, motivating techniques for verifying
the safety of their behavior. Unfortunately, DNN verification is NP-hard, with
current algorithms slowing exponentially with the number of nodes in the DNN.
This paper introduces the notion of Abstract Neural Networks (ANNs), which can
be used to soundly overapproximate DNNs while using fewer nodes. An ANN is like
a DNN except weight matrices are replaced by values in a given abstract domain.
We present a framework parameterized by the abstract domain and activation
functions used in the DNN that can be used to construct a corresponding ANN. We
present necessary and sufficient conditions on the DNN activation functions for
the constructed ANN to soundly over-approximate the given DNN. Prior work on
DNN abstraction was restricted to the interval domain and ReLU activation
function. Our framework can be instantiated with other abstract domains such as
octagons and polyhedra, as well as other activation functions such as Leaky
ReLU, Sigmoid, and Hyperbolic Tangent.
- Abstract(参考訳): ディープニューラルネットワーク(Deep Neural Networks, DNN)は、ドローンや航空機の制御、行動の安全性を検証するモチベーション技術など、安全クリティカルな領域に急速に適用されている。
残念ながら、DNN検証はNPハードであり、現在のアルゴリズムはDNNのノード数と指数関数的に遅くなっている。
本稿では,ノード数を少なくしながら,dnnを近似的に過大にするために使用できる抽象ニューラルネットワーク(anns)の概念を紹介する。
ANNはDNNに似ているが、重量行列は与えられた抽象領域の値に置き換えられる。
本稿では、DNNで使用される抽象ドメインとアクティベーション関数によってパラメータ化され、対応するANNを構築するのに使用できるフレームワークを提案する。
構築されたANNが与えられたDNNを過度に近似するために必要かつ十分な条件を示す。
DNNの抽象化に関する以前の作業は、インターバルドメインとReLUアクティベーション関数に限定されていた。
我々のフレームワークは、オクタゴンやポリヘドラといった他の抽象ドメインや、Leaky ReLU、Sigmoid、Hyperbolic Tangentといった他の活性化関数とインスタンス化することができる。
関連論文リスト
- GhostRNN: Reducing State Redundancy in RNN with Cheap Operations [66.14054138609355]
本稿では,効率的なRNNアーキテクチャであるGhostRNNを提案する。
KWSとSEタスクの実験により、提案されたGhostRNNはメモリ使用量(40%)と計算コストを大幅に削減し、性能は類似している。
論文 参考訳(メタデータ) (2024-11-20T11:37:14Z) - Fully Spiking Actor Network with Intra-layer Connections for
Reinforcement Learning [51.386945803485084]
エージェントが制御する多次元決定論的ポリシーを学習する必要があるタスクに焦点をあてる。
既存のスパイクベースのRL法は、SNNの出力として発火率を取り、完全に接続された層を通して連続的なアクション空間(つまり決定論的なポリシー)を表すように変換する。
浮動小数点行列操作を伴わない完全にスパイクするアクターネットワークを開発するため,昆虫に見られる非スパイク介在ニューロンからインスピレーションを得た。
論文 参考訳(メタデータ) (2024-01-09T07:31:34Z) - On the Computational Complexity and Formal Hierarchy of Second Order
Recurrent Neural Networks [59.85314067235965]
2次次リカレントネットワーク(RNN)の理論基盤を拡大する(2次RNN)
有界時間でチューリング完備な RNN のクラスが存在することを証明している。
また、記憶のない2ドルのRNNは、バニラRNNのような現代のモデルよりも優れており、正規文法の認識において繰り返し単位をゲートしていることを示す。
論文 参考訳(メタデータ) (2023-09-26T06:06:47Z) - Optimal ANN-SNN Conversion for High-accuracy and Ultra-low-latency
Spiking Neural Networks [22.532709609646066]
スパイキングニューラルネットワーク(SNN)は、低消費電力とニューロモルフィックハードウェアにおける高速推論の特徴的な特性により、大きな注目を集めている。
ディープSNNを得る最も効果的な方法として、ANN-SNN変換は大規模データセット上でのANNと同等のパフォーマンスを達成した。
本稿では,ANN-SNN変換誤差を理論的に解析し,SNNの活性化関数を推定する。
SNNとANNの変換誤差はゼロであり、高精度で超低レイテンシのSNNを実現することができることを示す。
論文 参考訳(メタデータ) (2023-03-08T03:04:53Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Beyond Classification: Directly Training Spiking Neural Networks for
Semantic Segmentation [5.800785186389827]
ニューラルネットワークの低消費電力代替としてスパイキングニューラルネットワーク(SNN)が登場している。
本稿では,ニューロンをスパイクしたセマンティックセグメンテーションネットワークの分類を超えて,SNNの応用について検討する。
論文 参考訳(メタデータ) (2021-10-14T21:53:03Z) - Strengthening the Training of Convolutional Neural Networks By Using
Walsh Matrix [0.0]
分類性能を向上させるため,DNNのトレーニングと構造を変更した。
畳み込みニューラルネットワーク(CNN)の最後の層に続く最小距離ネットワーク(MDN)が分類器として使用される。
異なる領域では、ノード数が少ないDivFEを使用することでより高い分類性能が得られたことが観察されている。
論文 参考訳(メタデータ) (2021-03-31T18:06:11Z) - SyReNN: A Tool for Analyzing Deep Neural Networks [8.55884254206878]
ディープニューラルネットワーク(DNN)は、さまざまな重要なドメインで急速に人気を集めています。
本稿では,そのシンボル表現を計算してDNNの理解と分析を行うSyReNNを紹介する。
論文 参考訳(メタデータ) (2021-01-09T00:27:23Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - You Only Spike Once: Improving Energy-Efficient Neuromorphic Inference
to ANN-Level Accuracy [51.861168222799186]
スパイキングニューラルネットワーク(英: Spiking Neural Networks、SNN)は、神経型ネットワークの一種である。
SNNはスパースであり、重量はごくわずかであり、通常、より電力集約的な乗算および累積演算の代わりに追加操作のみを使用する。
本研究では,TTFS符号化ニューロモルフィックシステムの限界を克服することを目的としている。
論文 参考訳(メタデータ) (2020-06-03T15:55:53Z) - Fractional Deep Neural Network via Constrained Optimization [0.0]
本稿では,ディープニューラルネットワーク(DNN)のための新しいアルゴリズムフレームワークを提案する。
Fractional-DNNは、時間非線形常微分方程式(ODE)における分数の時間差分化と見なすことができる。
論文 参考訳(メタデータ) (2020-04-01T21:58:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。