論文の概要: LIAF-Net: Leaky Integrate and Analog Fire Network for Lightweight and
Efficient Spatiotemporal Information Processing
- arxiv url: http://arxiv.org/abs/2011.06176v1
- Date: Thu, 12 Nov 2020 03:04:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 06:32:19.410718
- Title: LIAF-Net: Leaky Integrate and Analog Fire Network for Lightweight and
Efficient Spatiotemporal Information Processing
- Title(参考訳): LIAF-Net: 軽量かつ効率的な時空間情報処理のための漏洩積分とアナログファイアネットワーク
- Authors: Zhenzhi Wu, Hehui Zhang, Yihan Lin, Guoqi Li, Meng Wang, Ye Tang
- Abstract要約: Deep Network LIAF-Net は LIF-SNN 上に構築されている。
一時的レイヤとして、LIAFは従来の人工知能ニューラルネットワーク(ANN)レイヤと共同で使用することもできる。
- 参考スコア(独自算出の注目度): 16.446511505488633
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spiking neural networks (SNNs) based on Leaky Integrate and Fire (LIF) model
have been applied to energy-efficient temporal and spatiotemporal processing
tasks. Thanks to the bio-plausible neuronal dynamics and simplicity, LIF-SNN
benefits from event-driven processing, however, usually faces the embarrassment
of reduced performance. This may because in LIF-SNN the neurons transmit
information via spikes. To address this issue, in this work, we propose a Leaky
Integrate and Analog Fire (LIAF) neuron model, so that analog values can be
transmitted among neurons, and a deep network termed as LIAF-Net is built on it
for efficient spatiotemporal processing. In the temporal domain, LIAF follows
the traditional LIF dynamics to maintain its temporal processing capability. In
the spatial domain, LIAF is able to integrate spatial information through
convolutional integration or fully-connected integration. As a spatiotemporal
layer, LIAF can also be used with traditional artificial neural network (ANN)
layers jointly. Experiment results indicate that LIAF-Net achieves comparable
performance to Gated Recurrent Unit (GRU) and Long short-term memory (LSTM) on
bAbI Question Answering (QA) tasks, and achieves state-of-the-art performance
on spatiotemporal Dynamic Vision Sensor (DVS) datasets, including MNIST-DVS,
CIFAR10-DVS and DVS128 Gesture, with much less number of synaptic weights and
computational overhead compared with traditional networks built by LSTM, GRU,
Convolutional LSTM (ConvLSTM) or 3D convolution (Conv3D). Compared with
traditional LIF-SNN, LIAF-Net also shows dramatic accuracy gain on all these
experiments. In conclusion, LIAF-Net provides a framework combining the
advantages of both ANNs and SNNs for lightweight and efficient spatiotemporal
information processing.
- Abstract(参考訳): Leaky Integrate and Fire(LIF)モデルに基づくスパイキングニューラルネットワーク(SNN)は、エネルギー効率の良い時空間および時空間処理タスクに適用されている。
しかし、lif-snnは、バイオプルーサブルなニューロンのダイナミクスとシンプルさのおかげで、イベント駆動処理の利点を享受している。
これはLIF-SNNにおいて、ニューロンがスパイクを介して情報を伝達するためかもしれない。
この問題に対処するため,本研究では,リーク型積分・アナログ火炎(liaf)ニューロンモデルを提案し,ニューロン間でアナログ値を伝達し,その上にliaf-netと呼ばれる深層ネットワークを構築し,時空間処理を効率化する。
時間領域では、liafは時間的処理能力を維持するために従来のlifダイナミクスに従う。
空間領域において、liafは畳み込み積分や完全連結積分を通じて空間情報を統合することができる。
時空間層として、LIAFは従来の人工知能ニューラルネットワーク(ANN)層と併用することもできる。
Experiment results indicate that LIAF-Net achieves comparable performance to Gated Recurrent Unit (GRU) and Long short-term memory (LSTM) on bAbI Question Answering (QA) tasks, and achieves state-of-the-art performance on spatiotemporal Dynamic Vision Sensor (DVS) datasets, including MNIST-DVS, CIFAR10-DVS and DVS128 Gesture, with much less number of synaptic weights and computational overhead compared with traditional networks built by LSTM, GRU, Convolutional LSTM (ConvLSTM) or 3D convolution (Conv3D).
従来のLIF-SNNと比較して、LIAF-Netはこれらの実験で劇的に精度が向上した。
結論として、LIAF-Netは、軽量かつ効率的な時空間情報処理のためのANNとSNNの両方の利点を組み合わせたフレームワークを提供する。
関連論文リスト
- CLIF: Complementary Leaky Integrate-and-Fire Neuron for Spiking Neural Networks [5.587069105667678]
スパイキングニューラルネットワーク(SNN)は、脳にインスパイアされたエネルギー効率のモデルである。
差別化できないスパイク機構のため、SNNを訓練することは依然として困難である。
本稿では、Leaky Integrate-and-Fire Neuron-based SNNとComplementary Leaky Integrate-and-Fire Neuronを提案する。
論文 参考訳(メタデータ) (2024-02-07T08:51:57Z) - LC-TTFS: Towards Lossless Network Conversion for Spiking Neural Networks
with TTFS Coding [55.64533786293656]
我々は,AIタスクにおいて,ANNのアクティベーション値とSNNのスパイク時間とのほぼ完全なマッピングを実現することができることを示す。
この研究は、電力制約のあるエッジコンピューティングプラットフォームに超低消費電力のTTFSベースのSNNをデプロイする方法を舗装している。
論文 参考訳(メタデータ) (2023-10-23T14:26:16Z) - Accelerating SNN Training with Stochastic Parallelizable Spiking Neurons [1.7056768055368383]
スパイキングニューラルネットワーク(SNN)は、特にニューロモルフィックハードウェアにおいて、少ないエネルギーを使用しながら特徴を学習することができる。
深層学習において最も広く用いられるニューロンは、時間と火災(LIF)ニューロンである。
論文 参考訳(メタデータ) (2023-06-22T04:25:27Z) - Properties and Potential Applications of Random Functional-Linked Types
of Neural Networks [81.56822938033119]
ランダム関数リンクニューラルネットワーク(RFLNN)は、深い構造を学習する別の方法を提供する。
本稿では周波数領域の観点からRFLNNの特性について考察する。
本稿では,より優れた性能でBLSネットワークを生成する手法を提案し,ポゾン方程式を解くための効率的なアルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-04-03T13:25:22Z) - Towards Energy-Efficient, Low-Latency and Accurate Spiking LSTMs [1.7969777786551424]
Spiking Neural Networks(SNN)は、複雑なタスクのための魅力的なテンポラルコンピューティングパラダイムビジョンとして登場した。
そこで本研究では,新規な長期記憶ネットワーク(LSTM)の学習フレームワークを提案する。
rev-to-SNN変換フレームワーク、続いてSNNトレーニング。
我々は、時間的M、Google Speech Commands(GSC)データセット、異なるLSTMアーキテクチャ上のUCIスマートフォンなど、逐次学習タスクに関するフレームワークを評価した。
論文 参考訳(メタデータ) (2022-10-23T04:10:27Z) - Adaptive-SpikeNet: Event-based Optical Flow Estimation using Spiking
Neural Networks with Learnable Neuronal Dynamics [6.309365332210523]
ニューラルインスパイアされたイベント駆動処理でニューラルネットワーク(SNN)をスパイクすることで、非同期データを効率的に処理できる。
スパイク消滅問題を緩和するために,学習可能な神経力学を用いた適応型完全スパイキングフレームワークを提案する。
実験の結果,平均終端誤差(AEE)は最先端のANNと比較して平均13%減少した。
論文 参考訳(メタデータ) (2022-09-21T21:17:56Z) - Event-based Video Reconstruction via Potential-assisted Spiking Neural
Network [48.88510552931186]
バイオインスパイアされたニューラルネットワークは、イベント駆動ハードウェア上での計算効率の向上につながる可能性がある。
完全スパイキングニューラルネットワーク(EVSNN)に基づくイベントベースビデオ再構成フレームワークを提案する。
スパイクニューロンは、そのような時間依存タスクを完了させるために有用な時間情報(メモリ)を格納する可能性がある。
論文 参考訳(メタデータ) (2022-01-25T02:05:20Z) - Hybrid SNN-ANN: Energy-Efficient Classification and Object Detection for
Event-Based Vision [64.71260357476602]
イベントベースの視覚センサは、画像フレームではなく、イベントストリームの局所的な画素単位の明るさ変化を符号化する。
イベントベースセンサーによる物体認識の最近の進歩は、ディープニューラルネットワークの変換によるものである。
本稿では、イベントベースのパターン認識とオブジェクト検出のためのディープニューラルネットワークのエンドツーエンドトレーニングのためのハイブリッドアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-06T23:45:58Z) - A journey in ESN and LSTM visualisations on a language task [77.34726150561087]
我々は,CSL(Cross-Situationnal Learning)タスクでESNとLSTMを訓練した。
その結果, 性能比較, 内部力学解析, 潜伏空間の可視化の3種類が得られた。
論文 参考訳(メタデータ) (2020-12-03T08:32:01Z) - Automatic Remaining Useful Life Estimation Framework with Embedded
Convolutional LSTM as the Backbone [5.927250637620123]
組込み畳み込みLSTM(E NeuralTM)と呼ばれる新しいLSTM変種を提案する。
ETMでは、異なる1次元の畳み込みの群がLSTM構造に埋め込まれている。
RUL推定のために広く用いられているいくつかのベンチマークデータセットに対する最先端のアプローチよりも,提案したEMMアプローチの方が優れていることを示す。
論文 参考訳(メタデータ) (2020-08-10T08:34:20Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。