論文の概要: Catwalk: Unary Top-K for Efficient Ramp-No-Leak Neuron Design for Temporal Neural Networks
- arxiv url: http://arxiv.org/abs/2508.21267v1
- Date: Thu, 28 Aug 2025 23:50:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-01 19:45:10.903985
- Title: Catwalk: Unary Top-K for Efficient Ramp-No-Leak Neuron Design for Temporal Neural Networks
- Title(参考訳): Catwalk: 時間的ニューラルネットワークのための効率的なランプなしリークニューロン設計のための共通トップK
- Authors: Devon Lister, Prabhu Vellaisamy, John Paul Shen, Di Wu,
- Abstract要約: 本研究では、スパイクボレー内のスパイクを一元的トップkを介してソートされたサブセットクラスタとして移動させることにより、キャットウォークニューロンの実装を提案する。
キャットウォークは、既存の0-RNLニューロンと比較して、それぞれ1.39倍と1.86倍の面積とパワーを持つ。
- 参考スコア(独自算出の注目度): 3.0670569650183928
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Temporal neural networks (TNNs) are neuromorphic neural networks that utilize bit-serial temporal coding. TNNs are composed of columns, which in turn employ neurons as their building blocks. Each neuron processes volleys of input spikes, modulated by associated synaptic weights, on its dendritic inputs. Recently proposed neuron implementation in CMOS employs a Spike Response Model (SRM) with a ramp-no-leak (RNL) response function and assumes all the inputs can carry spikes. However, in actual spike volleys, only a small subset of the dendritic inputs actually carry spikes in each compute cycle. This form of sparsity can be exploited to achieve better hardware efficiency. In this paper, we propose a Catwalk neuron implementation by relocating spikes in a spike volley as a sorted subset cluster via unary top-k. Such relocation can significantly reduce the cost of the subsequent parallel counter (PC) for accumulating the response functions from the spiking inputs. This can lead to improvements on area and power efficiency in RNL neuron implementation. Place-and-route results show Catwalk is 1.39x and 1.86x better in area and power, respectively, as compared to existing SRM0-RNL neurons.
- Abstract(参考訳): テンポラルニューラルネットワーク(TNN)は、ビットシリアル時間符号化を利用するニューロモルフィックニューラルネットワークである。
TNNはコラムで構成されており、ニューロンを構築ブロックとして使用する。
各ニューロンは、関連するシナプス重みによって調節された入力スパイクのボレーを樹状体入力で処理する。
最近提案されたCMOSのニューロン実装では、スパイク応答モデル (SRM) とランプノリーク (RNL) 応答関数を採用し、全ての入力がスパイクを運ぶことができると仮定している。
しかし、実際のスパイクボレーでは、デンドライト入力の小さなサブセットだけが、実際には各計算サイクルでスパイクを運ぶ。
ハードウェアの効率を向上させるために、この手の疎さを活用できる。
本稿では,スパイクボレー内のスパイクを一元的トポ-クでソートしたサブセットクラスタとして再配置することで,キャットウォークニューロンの実装を提案する。
このような移動は、スパイキング入力から応答関数を蓄積するための後続の並列カウンタ(PC)のコストを大幅に削減することができる。
これはRNLニューロン実装における面積と電力効率の改善につながる可能性がある。
プレース・アンド・ルートの結果、キャットウォークは、既存のSRM0-RNLニューロンと比較して、それぞれ面積とパワーが1.39倍と1.86倍良いことが示されている。
関連論文リスト
- An On-Chip Trainable Neuron Circuit for SFQ-Based Spiking Neural
Networks [4.825037489691159]
スパイキングニューラルネットワーク(SNN)のトレーニングのためのオンチップトレーニング可能なニューロン回路を提案する。
提案回路は,スパイクニューラルネットワーク(SNN)のトレーニングのためのバイオインスパイクに基づく時間依存データ計算に適合する。
回路はMIT LLQ5ee製造プロセス用に設計・最適化されている。
論文 参考訳(メタデータ) (2023-10-11T19:04:33Z) - Synaptic Stripping: How Pruning Can Bring Dead Neurons Back To Life [0.0]
我々は、致命的な神経細胞問題に対処する手段として、シナプスストリッピングを導入する。
トレーニング中に問題のある接続を自動的に取り除くことで、死んだ神経細胞を再生することができる。
我々は,ネットワーク幅と深さの関数として,これらのダイナミクスを研究するために,いくつかのアブレーション研究を行っている。
論文 参考訳(メタデータ) (2023-02-11T23:55:50Z) - Desire Backpropagation: A Lightweight Training Algorithm for Multi-Layer
Spiking Neural Networks based on Spike-Timing-Dependent Plasticity [13.384228628766236]
スパイキングニューラルネットワーク(SNN)は、従来の人工ニューラルネットワークの代替となる。
本研究は,隠されたニューロンを含むすべてのニューロンの所望のスパイク活性を導出する方法である欲求バックプロパゲーションを提示する。
我々はMNISTとFashion-MNISTを分類するために3層ネットワークを訓練し、それぞれ98.41%と87.56%の精度に達した。
論文 参考訳(メタデータ) (2022-11-10T08:32:13Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - A Spiking Neural Network Structure Implementing Reinforcement Learning [0.0]
本稿では,SNNの構造について述べる。
本論文で考察したSNN構造は、LIFAT(Leky Integration-and-fire neuron with adapt threshold)モデルの一般化によって記述されたスパイクニューロンを含む。
私の概念は、RLタスク特性に関する非常に一般的な仮定に基づいており、適用性に目に見える制限はありません。
論文 参考訳(メタデータ) (2022-04-09T09:08:10Z) - Event-based Video Reconstruction via Potential-assisted Spiking Neural
Network [48.88510552931186]
バイオインスパイアされたニューラルネットワークは、イベント駆動ハードウェア上での計算効率の向上につながる可能性がある。
完全スパイキングニューラルネットワーク(EVSNN)に基づくイベントベースビデオ再構成フレームワークを提案する。
スパイクニューロンは、そのような時間依存タスクを完了させるために有用な時間情報(メモリ)を格納する可能性がある。
論文 参考訳(メタデータ) (2022-01-25T02:05:20Z) - Non-linear Neurons with Human-like Apical Dendrite Activations [81.18416067005538]
XOR論理関数を100%精度で学習し, 標準的なニューロンに後続のアピーカルデンドライト活性化(ADA)が認められた。
コンピュータビジョン,信号処理,自然言語処理の6つのベンチマークデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-02-02T21:09:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。