論文の概要: Converting Artificial Neural Networks to Spiking Neural Networks via
Parameter Calibration
- arxiv url: http://arxiv.org/abs/2205.10121v1
- Date: Fri, 6 May 2022 18:22:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-29 21:23:42.445070
- Title: Converting Artificial Neural Networks to Spiking Neural Networks via
Parameter Calibration
- Title(参考訳): パラメータキャリブレーションによるニューラルネットワークのスパイクニューラルネットワークへの変換
- Authors: Yuhang Li, Shikuang Deng, Xin Dong, Shi Gu
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、次世代ニューラルネットワークの1つとして認識されている。
本研究では、ANNの重みをSNNにコピー&ペーストするだけで、必然的にアクティベーションミスマッチが発生することを論じる。
そこで本研究では,アクティベーションミスマッチを最小限に抑えるため,パラメータの調整を行う層ワイドパラメータキャリブレーションアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 21.117214351356765
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Spiking Neural Network (SNN), originating from the neural behavior in
biology, has been recognized as one of the next-generation neural networks.
Conventionally, SNNs can be obtained by converting from pre-trained Artificial
Neural Networks (ANNs) by replacing the non-linear activation with spiking
neurons without changing the parameters. In this work, we argue that simply
copying and pasting the weights of ANN to SNN inevitably results in activation
mismatch, especially for ANNs that are trained with batch normalization (BN)
layers. To tackle the activation mismatch issue, we first provide a theoretical
analysis by decomposing local conversion error to clipping error and flooring
error, and then quantitatively measure how this error propagates throughout the
layers using the second-order analysis. Motivated by the theoretical results,
we propose a set of layer-wise parameter calibration algorithms, which adjusts
the parameters to minimize the activation mismatch. Extensive experiments for
the proposed algorithms are performed on modern architectures and large-scale
tasks including ImageNet classification and MS COCO detection. We demonstrate
that our method can handle the SNN conversion with batch normalization layers
and effectively preserve the high accuracy even in 32 time steps. For example,
our calibration algorithms can increase up to 65% accuracy when converting
VGG-16 with BN layers.
- Abstract(参考訳): 生物学における神経行動に由来するスパイキングニューラルネットワーク(SNN)は、次世代ニューラルネットワークの1つとして認識されている。
従来は、パラメータを変更することなく非線形活性化をスパイキングニューロンに置き換えることで、事前学習されたニューラルネットワーク(anns)からsnsを得ることができる。
本稿では,ANNの重みをSNNにコピー&ペーストするだけで必然的にアクティベーションミスマッチが発生し,特にバッチ正規化(BN)層でトレーニングされたANNに対して議論する。
アクティベーションミスマッチ問題に対処するため,まず局所変換誤差をクリッピング誤差とフロアリング誤差に分解して理論的解析を行い,第2次解析を用いて,この誤差がどのように層全体に伝播するかを定量的に測定する。
理論結果に動機づけられて,アクティベーションミスマッチを最小限に抑えるためにパラメータを調整できる階層型パラメータキャリブレーションアルゴリズムを提案する。
提案アルゴリズムの大規模な実験は,ImageNet分類やMS COCO検出など,現代的なアーキテクチャや大規模タスクで行われている。
提案手法は,SNN変換をバッチ正規化層で処理し,32時間ステップでも高い精度を効果的に維持できることを示す。
例えば、vgg-16をbn層に変換する場合、キャリブレーションアルゴリズムは最大65%の精度を上げることができる。
関連論文リスト
- LC-TTFS: Towards Lossless Network Conversion for Spiking Neural Networks
with TTFS Coding [55.64533786293656]
我々は,AIタスクにおいて,ANNのアクティベーション値とSNNのスパイク時間とのほぼ完全なマッピングを実現することができることを示す。
この研究は、電力制約のあるエッジコンピューティングプラットフォームに超低消費電力のTTFSベースのSNNをデプロイする方法を舗装している。
論文 参考訳(メタデータ) (2023-10-23T14:26:16Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Variational Tensor Neural Networks for Deep Learning [0.0]
深部ニューラルネットワーク(NN)へのテンソルネットワーク(TN)の統合を提案する。
これにより、大きなパラメータ空間上で効率的にトレーニングできるスケーラブルなテンソルニューラルネットワーク(TNN)アーキテクチャが実現される。
我々はTNNモデルを設計し、線形および非線形回帰、データ分類、MNIST手書き桁の画像認識のためのベンチマーク結果を提供することにより、提案手法の精度と効率を検証した。
論文 参考訳(メタデータ) (2022-11-26T20:24:36Z) - Ultra-low Latency Adaptive Local Binary Spiking Neural Network with
Accuracy Loss Estimator [4.554628904670269]
精度損失推定器を用いた超低レイテンシ適応型局所二元スパイクニューラルネットワーク(ALBSNN)を提案する。
実験の結果,ネットワークの精度を損なうことなく,ストレージ容量を20%以上削減できることがわかった。
論文 参考訳(メタデータ) (2022-07-31T09:03:57Z) - Parameter Convex Neural Networks [13.42851919291587]
本研究では,ある条件下でのニューラルネットワークのパラメータに関して凸である指数的多層ニューラルネットワーク(EMLP)を提案する。
後期実験では,指数グラフ畳み込みネットワーク(EGCN)を同じアーキテクチャで構築し,グラフ分類データセット上で実験を行う。
論文 参考訳(メタデータ) (2022-06-11T16:44:59Z) - Spatial-Temporal-Fusion BNN: Variational Bayesian Feature Layer [77.78479877473899]
我々は,BNNを大規模モデルに効率的にスケールするための時空間BNNを設計する。
バニラBNNと比較して,本手法はトレーニング時間とパラメータ数を著しく削減し,BNNのスケールアップに有効である。
論文 参考訳(メタデータ) (2021-12-12T17:13:14Z) - Hybrid SNN-ANN: Energy-Efficient Classification and Object Detection for
Event-Based Vision [64.71260357476602]
イベントベースの視覚センサは、画像フレームではなく、イベントストリームの局所的な画素単位の明るさ変化を符号化する。
イベントベースセンサーによる物体認識の最近の進歩は、ディープニューラルネットワークの変換によるものである。
本稿では、イベントベースのパターン認識とオブジェクト検出のためのディープニューラルネットワークのエンドツーエンドトレーニングのためのハイブリッドアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-06T23:45:58Z) - A Free Lunch From ANN: Towards Efficient, Accurate Spiking Neural
Networks Calibration [11.014383784032084]
スパイキングニューラルネットワーク(SNN)は、次世代のニューラルネットワークの1つとして認識されている。
ANNからSNNへの変換においてパラメータの校正を行う適切な方法は、大幅な改善をもたらす可能性があることを示す。
論文 参考訳(メタデータ) (2021-06-13T13:20:12Z) - LocalDrop: A Hybrid Regularization for Deep Neural Networks [98.30782118441158]
本稿では,ローカルラデマチャー複雑性を用いたニューラルネットワークの正規化のための新しい手法であるLocalDropを提案する。
フルコネクテッドネットワーク(FCN)と畳み込みニューラルネットワーク(CNN)の両方のための新しい正規化機能は、ローカルラデマチャー複雑さの上限提案に基づいて開発されました。
論文 参考訳(メタデータ) (2021-03-01T03:10:11Z) - Optimal Conversion of Conventional Artificial Neural Networks to Spiking
Neural Networks [0.0]
spiking neural networks (snns) は生物学に触発されたニューラルネットワーク (anns) である。
しきい値バランスとソフトリセット機構を組み合わせることで、重みをターゲットSNNに転送する新しい戦略パイプラインを提案する。
提案手法は,SNNのエネルギーとメモリの制限によるサポートを向上し,組込みプラットフォームに組み込むことが期待できる。
論文 参考訳(メタデータ) (2021-02-28T12:04:22Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。