論文の概要: Distilling Neuron Spike with High Temperature in Reinforcement Learning
Agents
- arxiv url: http://arxiv.org/abs/2108.10078v1
- Date: Thu, 5 Aug 2021 07:48:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-29 12:08:10.237734
- Title: Distilling Neuron Spike with High Temperature in Reinforcement Learning
Agents
- Title(参考訳): 強化学習剤における高温希薄ニューロンスパイク
- Authors: Ling Zhang, Jian Cao, Yuan Zhang, Bohan Zhou, Shuo Feng
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、ディープニューラルネットワーク(DNN)と比較して、より高速な処理速度、省エネルギー、より生物学的な解釈性を持つ。
本稿では,STBPを用いたスパイク蒸留ネットワーク(SDN)の強化学習手法を提案する。
- 参考スコア(独自算出の注目度): 11.164444514889485
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking neural network (SNN), compared with depth neural network (DNN), has
faster processing speed, lower energy consumption and more biological
interpretability, which is expected to approach Strong AI. Reinforcement
learning is similar to learning in biology. It is of great significance to
study the combination of SNN and RL. We propose the reinforcement learning
method of spike distillation network (SDN) with STBP. This method uses
distillation to effectively avoid the weakness of STBP, which can achieve SOTA
performance in classification, and can obtain a smaller, faster convergence and
lower power consumption SNN reinforcement learning model. Experiments show that
our method can converge faster than traditional SNN reinforcement learning and
DNN reinforcement learning methods, about 1000 epochs faster, and obtain SNN
200 times smaller than DNN. We also deploy SDN to the PKU nc64c chip, which
proves that SDN has lower power consumption than DNN, and the power consumption
of SDN is more than 600 times lower than DNN on large-scale devices. SDN
provides a new way of SNN reinforcement learning, and can achieve SOTA
performance, which proves the possibility of further development of SNN
reinforcement learning.
- Abstract(参考訳): 深度ニューラルネットワーク(DNN)と比較して、スパイキングニューラルネットワーク(SNN)はより高速な処理速度、省エネルギー、より生物学的な解釈可能性を持ち、Strong AIにアプローチすることが期待される。
強化学習は生物学の学習に似ている。
SNNとRLの組み合わせを研究することは非常に重要である。
本稿では,STBPを用いたスパイク蒸留ネットワーク(SDN)の強化学習手法を提案する。
この方法は蒸留を用いてSTBPの弱点を効果的に回避し、分類におけるSOTA性能を実現し、より小さく、より高速な収束と低消費電力SNN強化学習モデルを得ることができる。
実験により,従来のSNN強化学習法やDNN強化学習法よりも早く収束し,約1000エポックを高速化し,DNNよりも200倍小さいSNNを得ることができた。
我々はまた、PKU nc64cチップにSDNをデプロイし、SDNがDNNよりも消費電力が低く、SDNの消費電力がDNNより600倍以上低いことを証明した。
SDNは、SNN強化学習の新しい方法を提供し、SOTA性能を実現し、SNN強化学習のさらなる発展の可能性を示す。
関連論文リスト
- BKDSNN: Enhancing the Performance of Learning-based Spiking Neural Networks Training with Blurred Knowledge Distillation [20.34272550256856]
スパイキングニューラルネットワーク(SNN)は、生物学的ニューラルネットワークを模倣し、離散スパイクを介して情報を伝達する。
本研究は,静的およびニューロモルフィックなデータセット上でSNNをトレーニングするための最先端性能を実現する。
論文 参考訳(メタデータ) (2024-07-12T08:17:24Z) - ESL-SNNs: An Evolutionary Structure Learning Strategy for Spiking Neural
Networks [20.33499499020257]
スパイキングニューラルネットワーク(SNN)は、推論プロセス中に消費電力とイベント駆動特性に顕著な優位性を示した。
スパースSNNトレーニングをスクラッチから実装するために,ESL-SNNと呼ばれるSNNのための効率的な進化的構造学習フレームワークを提案する。
本研究は,SNNをスクラッチから切り離し,生物学的に妥当な進化機構で訓練するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-06-06T14:06:11Z) - Constructing Deep Spiking Neural Networks from Artificial Neural
Networks with Knowledge Distillation [20.487853773309563]
スパイキングニューラルネットワーク(SNN)は、高い計算効率を持つ脳にインスパイアされたモデルとしてよく知られている。
知識蒸留(KD)を用いた深部SNNモデル構築手法を提案する。
論文 参考訳(メタデータ) (2023-04-12T05:57:21Z) - Training Spiking Neural Networks with Local Tandem Learning [96.32026780517097]
スパイキングニューラルネットワーク(SNN)は、前者よりも生物学的に可塑性でエネルギー効率が高いことが示されている。
本稿では,局所タンデム学習(Local Tandem Learning, LTL)と呼ばれる一般化学習規則を提案する。
CIFAR-10データセット上の5つのトレーニングエポック内に高速なネットワーク収束を示すとともに,計算複雑性が低い。
論文 参考訳(メタデータ) (2022-10-10T10:05:00Z) - Online Training Through Time for Spiking Neural Networks [66.7744060103562]
スパイキングニューラルネットワーク(SNN)は、脳にインスパイアされたエネルギー効率のモデルである。
近年のトレーニング手法の進歩により、レイテンシの低い大規模タスクにおいて、ディープSNNを成功させることができた。
本稿では,BPTT から派生した SNN の時間的学習(OTTT)によるオンライントレーニングを提案する。
論文 参考訳(メタデータ) (2022-10-09T07:47:56Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Can Deep Neural Networks be Converted to Ultra Low-Latency Spiking
Neural Networks? [3.2108350580418166]
スパイクニューラルネットワーク(SNN)は、時間とともに分散されたバイナリスパイクを介して動作する。
SNNのためのSOTAトレーニング戦略は、非スパイキングディープニューラルネットワーク(DNN)からの変換を伴う
そこで本研究では,DNNと変換SNNの誤差を最小限に抑えながら,これらの分布を正確にキャプチャする新たなトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-12-22T18:47:45Z) - Deep Time Delay Neural Network for Speech Enhancement with Full Data
Learning [60.20150317299749]
本稿では,全データ学習による音声強調のためのディープタイム遅延ニューラルネットワーク(TDNN)を提案する。
トレーニングデータを完全に活用するために,音声強調のための完全なデータ学習手法を提案する。
論文 参考訳(メタデータ) (2020-11-11T06:32:37Z) - Kernel Based Progressive Distillation for Adder Neural Networks [71.731127378807]
追加のみを含むAdder Neural Networks(ANN)は、エネルギー消費の少ないディープニューラルネットワークを新たに開発する方法を提供する。
すべての畳み込みフィルタを加算フィルタで置き換える場合、精度の低下がある。
本稿では,トレーニング可能なパラメータを増大させることなく,ANNの性能を向上するための新しい手法を提案する。
論文 参考訳(メタデータ) (2020-09-28T03:29:19Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Distilling Spikes: Knowledge Distillation in Spiking Neural Networks [22.331135708302586]
Spiking Neural Networks (SNN) は、情報処理のためにスパイクを交換するエネルギー効率の高いコンピューティングアーキテクチャである。
画像分類のためのスパイクニューラルネットワークにおける知識蒸留手法を提案する。
我々のアプローチは、リソース制約のあるハードウェアプラットフォーム上で、高性能な大規模SNNモデルをデプロイするための新たな道を開くことが期待されている。
論文 参考訳(メタデータ) (2020-05-01T09:36:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。