論文の概要: Optimized spiking neurons classify images with high accuracy through
temporal coding with two spikes
- arxiv url: http://arxiv.org/abs/2002.00860v4
- Date: Tue, 26 Jan 2021 07:57:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 06:02:56.896446
- Title: Optimized spiking neurons classify images with high accuracy through
temporal coding with two spikes
- Title(参考訳): 2つのスパイクによる時間符号化によるスピーキングニューロンの高精度画像分類
- Authors: Christoph St\"ockl and Wolfgang Maass
- Abstract要約: スパイクベースのニューロモルフィックハードウェアは、画像分類やその他のディープラーニング応用のエネルギー消費を減らすことを約束する。
トレーニング済みの人工ニューラルネットワークをスパイクニューロンに変換する方法は、ニューロンがスパイクを多すぎるため、非効率であった。
このような目的のために、スパイキングニューロンモデルを最適化すると、より効率的な変換が起こることが示される。
- 参考スコア(独自算出の注目度): 1.7767466724342065
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spike-based neuromorphic hardware promises to reduce the energy consumption
of image classification and other deep learning applications, particularly on
mobile phones or other edge devices. However, direct training of deep spiking
neural networks is difficult, and previous methods for converting trained
artificial neural networks to spiking neurons were inefficient because the
neurons had to emit too many spikes. We show that a substantially more
efficient conversion arises when one optimizes the spiking neuron model for
that purpose, so that it not only matters for information transmission how many
spikes a neuron emits, but also when it emits those spikes. This advances the
accuracy that can be achieved for image classification with spiking neurons,
and the resulting networks need on average just two spikes per neuron for
classifying an image. In addition, our new conversion method improves latency
and throughput of the resulting spiking networks.
- Abstract(参考訳): スパイクベースのニューロモルフィックハードウェアは、画像分類やその他のディープラーニングアプリケーション、特に携帯電話や他のエッジデバイスにおけるエネルギー消費を減らすことを約束している。
しかし、深層スパイクニューラルネットワークの直接訓練は困難であり、従来の訓練された人工ニューラルネットワークをスパイクニューロンに変換する方法は、ニューロンがスパイクを多すぎるために非効率であった。
我々は、その目的のためにスパイクニューロンモデルを最適化する際に、より効率的な変換が生じることを示し、情報伝達だけでなく、スパイクが放出されるスパイクの数についても重要な意味を持つことを示した。
これにより、スパイキングニューロンによる画像分類で得られる精度が向上し、画像の分類には平均して1ニューロンあたりのスパイクが2つ必要となる。
さらに,新たな変換手法により,結果のスパイクネットワークのレイテンシとスループットが向上する。
関連論文リスト
- An experimental comparative study of backpropagation and alternatives for training binary neural networks for image classification [1.0749601922718608]
バイナリニューラルネットワークは、ディープニューラルネットワークモデルのサイズを減らすことを約束する。
より強力なモデルをエッジデバイスにデプロイすることも可能だ。
しかしながら、バイナリニューラルネットワークは、バックプロパゲーションに基づく勾配降下法を用いて訓練することが依然として難しいことが証明されている。
論文 参考訳(メタデータ) (2024-08-08T13:39:09Z) - When Spiking neural networks meet temporal attention image decoding and adaptive spiking neuron [7.478056407323783]
スパイキングニューラルネットワーク(SNN)は、生物学的に妥当な方法で時間情報をエンコードし、処理することができる。
本稿では,時間的注意(TAID)に基づく画像復号法と適応型Leaky-Integrate-and-Fireニューロンモデルを提案する。
論文 参考訳(メタデータ) (2024-06-05T08:21:55Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Smooth Exact Gradient Descent Learning in Spiking Neural Networks [0.0]
連続的にしか変化しないスパイキングダイナミクスに基づく厳密な勾配降下学習を実証する。
その結果, 離散的なスパイクにもかかわらず, 非破壊的学習がいかに可能かが示唆された。
論文 参考訳(メタデータ) (2023-09-25T20:51:00Z) - Deep Multi-Threshold Spiking-UNet for Image Processing [51.88730892920031]
本稿では,SNN(Spike Neural Networks)とU-Netアーキテクチャを組み合わせた,画像処理のためのスパイキング-UNetの概念を紹介する。
効率的なスパイキング-UNetを実現するためには,スパイクによる高忠実度情報伝播の確保と,効果的なトレーニング戦略の策定という2つの課題に直面する。
実験の結果,画像のセグメンテーションとデノイングにおいて,スパイキングUNetは非スパイキングと同等の性能を発揮することがわかった。
論文 参考訳(メタデータ) (2023-07-20T16:00:19Z) - Surrogate Gradient Spiking Neural Networks as Encoders for Large
Vocabulary Continuous Speech Recognition [91.39701446828144]
スパイクニューラルネットワークは, 代理勾配法を用いて, 通常のリカレントニューラルネットワークのように訓練可能であることを示す。
彼らは音声コマンド認識タスクについて有望な結果を示した。
繰り返し発生する非スパイキングとは対照的に、ゲートを使わずに爆発する勾配問題に対して堅牢性を示す。
論文 参考訳(メタデータ) (2022-12-01T12:36:26Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Training Deep Spiking Auto-encoders without Bursting or Dying Neurons
through Regularization [9.34612743192798]
スパイクニューラルネットワークは、計算神経科学における次世代の脳モデルに対する有望なアプローチである。
膜電位に基づくバックプロパゲーションを用いたエンドツーエンド学習を、スパイクする畳み込みオートエンコーダに適用する。
膜電位とスパイク出力に正規化を適用することで、死と破裂の両方のニューロンをうまく回避できることを示す。
論文 参考訳(メタデータ) (2021-09-22T21:27:40Z) - Dynamic Neural Diversification: Path to Computationally Sustainable
Neural Networks [68.8204255655161]
訓練可能なパラメータが制限された小さなニューラルネットワークは、多くの単純なタスクに対してリソース効率の高い候補となる。
学習過程において隠れた層内のニューロンの多様性を探索する。
ニューロンの多様性がモデルの予測にどのように影響するかを分析する。
論文 参考訳(メタデータ) (2021-09-20T15:12:16Z) - Neural Sparse Representation for Image Restoration [116.72107034624344]
スパース符号化に基づく画像復元モデルの堅牢性と効率に触発され,深部ネットワークにおけるニューロンの空間性について検討した。
本手法は,隠れたニューロンに対する空間的制約を構造的に強制する。
実験により、複数の画像復元タスクのためのディープニューラルネットワークではスパース表現が不可欠であることが示されている。
論文 参考訳(メタデータ) (2020-06-08T05:15:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。