論文の概要: SRAM-Based Compute-in-Memory Accelerator for Linear-decay Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2603.12739v1
- Date: Fri, 13 Mar 2026 07:34:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-16 17:38:11.968935
- Title: SRAM-Based Compute-in-Memory Accelerator for Linear-decay Spiking Neural Networks
- Title(参考訳): 線形デカイスパイクニューラルネットワークのためのSRAMベースのメモリメモリ加速器
- Authors: Hongyang Shang, Shuai Dong, Yahan Yang, Junyi Yang, Peng Zhou, Arindam Basu,
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、従来のディープネットワークに代わる生物学的にインスピレーションを受けている。
彼らのスループットは、ニューロンの膜状態の連続的な更新によって制限されている。
本稿では,メモリ内並列更新方式を提案する。
- 参考スコア(独自算出の注目度): 9.784439949585666
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spiking Neural Networks (SNNs) have emerged as a biologically inspired alternative to conventional deep networks, offering event-driven and energy-efficient computation. However, their throughput remains constrained by the serial update of neuron membrane states. While many hardware accelerators and Compute-in-Memory (CIM) architectures efficiently parallelize the synaptic operation (W x I) achieving O(1) complexity for matrix-vector multiplication, the subsequent state update step still requires O(N) time to refresh all neuron membrane potentials. This mismatch makes state update the dominant latency and energy bottleneck in SNN inference. To address this challenge, we propose an SRAM-based CIM for SNN with Linear Decay Leaky Integrate-and-Fire (LD-LIF) Neuron that co-optimizes algorithm and hardware. At the algorithmic level, we replace the conventional exponential membrane decay with a linear decay approximation, converting costly multiplications into simple additions while accuracy drops only around 1%. At the architectural level, we introduce an in-memory parallel update scheme that performs in-place decay directly within the SRAM array, eliminating the need for global sequential updates. Evaluated on benchmark SNN workloads, the proposed method achieves a 1.1 x to 16.7 x reduction of SOP energy consumption, while providing 15.9 x to 69 x more energy efficiency, with negligible accuracy loss relative to original decay models. This work highlights that beyond accelerating the (W x I) computation, optimizing state-update dynamics within CIM architectures is essential for scalable, low-power, and real-time neuromorphic processing.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、イベント駆動およびエネルギー効率の高い計算を提供する、従来のディープネットワークに代わる生物学的にインスパイアされた代替品として登場した。
しかし、そのスループットは、ニューロンの膜状態の連続的な更新によって制限されている。
多くのハードウェアアクセラレータとCompute-in-Memory(CIM)アーキテクチャは、行列ベクトル乗算のO(1)複雑性を達成するためのシナプス演算(W x I)を効率的に並列化するが、その後の状態更新ステップでは、すべてのニューロン膜電位をリフレッシュするO(N)時間が必要である。
このミスマッチにより、状態更新はSNN推論の遅延とエネルギーボトルネックを支配的なものにする。
この課題に対処するため,Linear Decay Leaky Integrate-and-Fire Neuron(LD-LIF)を用いたSNN用SRAMベースのCIMを提案する。
アルゴリズムレベルでは、従来の指数的膜崩壊を線形減衰近似に置き換え、コストのかかる乗算を単純な加算に変換し、精度は1%程度しか低下しない。
アーキテクチャレベルでは,SRAMアレイ内で直接,インメモリの並列更新を行う方式を導入し,グローバルなシーケンシャル更新の必要性を排除した。
ベンチマークSNNの負荷に基づいて,提案手法はSOPのエネルギー消費を1.1 xから16.7 xに削減し,15.9 xから69 xにエネルギー効率を向上する。
この研究は、(W x I)計算を高速化するだけでなく、CIMアーキテクチャにおける状態更新のダイナミクスを最適化することが、スケーラブルで低消費電力でリアルタイムなニューロモルフィック処理に不可欠であることを強調している。
関連論文リスト
- SCORE: Replacing Layer Stacking with Contractive Recurrent Depth [0.0]
残余接続は、現代のディープニューラルネットワークの中心である。
本稿では,従来の層積み重ねに代わる離散的再帰型 SCORE (Skip-Connection ODE Recurrent Embedding) を提案する。
論文 参考訳(メタデータ) (2026-03-11T08:49:03Z) - MesaNet: Sequence Modeling by Locally Optimal Test-Time Training [67.45211108321203]
我々は,最近提案されたMesa層の数値的に安定かつチャンクワイズ可能な並列化版を導入する。
テストタイムの最適トレーニングにより、従来のRNNよりも言語モデリングの難易度が低く、ダウンストリームベンチマークのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2025-06-05T16:50:23Z) - Multiplication-Free Parallelizable Spiking Neurons with Efficient Spatio-Temporal Dynamics [40.43988645674521]
スパイキングニューラルネットワーク(SNN)は、生物学的ニューラルネットワークにインスパイアされた複雑な神経力学とスパースバイナリアクティベーション(スパイクス)によって、ニューラルネットワーク(ANN)と区別される。
従来のニューロンモデルは反復的なステップバイステップのダイナミクスを使用し、シリアル計算とSNNの遅いトレーニング速度をもたらす。
近年、SNNの訓練を加速するために、グラフィックス処理ユニットの大規模並列計算能力をフル活用するために並列化可能なスパイクニューロンモデルが提案されている。
論文 参考訳(メタデータ) (2025-01-24T13:44:08Z) - Efficient Event-based Delay Learning in Spiking Neural Networks [0.1350479308585481]
スパイキングニューラルネットワーク(SNN)はスパース通信を用いて計算し、注目を集めている。
本研究では,イベントプロップ形式を基礎とした,遅延を伴うSNNのための新しいイベントベーストレーニング手法を提案する。
提案手法はニューロン毎の複数のスパイクをサポートし,我々の知る限り,繰り返しSNNに適用される最初の遅延学習アルゴリズムである。
論文 参考訳(メタデータ) (2025-01-13T13:44:34Z) - Deep-Unrolling Multidimensional Harmonic Retrieval Algorithms on Neuromorphic Hardware [78.17783007774295]
本稿では,高精度かつエネルギー効率の高い単発多次元高調波検索のための変換に基づくニューロモルフィックアルゴリズムの可能性について検討する。
複雑な値の畳み込み層と活性化をスパイクニューラルネットワーク(SNN)に変換する新しい手法を開発した。
変換されたSNNは、元のCNNに比べて性能が低下し、ほぼ5倍の電力効率を実現している。
論文 参考訳(メタデータ) (2024-12-05T09:41:33Z) - BasisN: Reprogramming-Free RRAM-Based In-Memory-Computing by Basis Combination for Deep Neural Networks [9.170451418330696]
本研究では,任意のクロスバー上のディープニューラルネットワーク(DNN)をリプログラミングせずに高速化するBasisNフレームワークを提案する。
その結果, クロスバーに再プログラミングを適用する場合と比較して, 推論毎のサイクルとエネルギー遅延生成物は1%以下に削減された。
論文 参考訳(メタデータ) (2024-07-04T08:47:05Z) - Resistive Memory-based Neural Differential Equation Solver for Score-based Diffusion Model [55.116403765330084]
スコアベースの拡散のような現在のAIGC法は、迅速性と効率性の点で依然として不足している。
スコアベース拡散のための時間連続型およびアナログ型インメモリ型ニューラル微分方程式解法を提案する。
我々は180nmの抵抗型メモリインメモリ・コンピューティング・マクロを用いて,我々の解を実験的に検証した。
論文 参考訳(メタデータ) (2024-04-08T16:34:35Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - A Resource-efficient Spiking Neural Network Accelerator Supporting
Emerging Neural Encoding [6.047137174639418]
スパイキングニューラルネットワーク(SNN)は、その低消費電力乗算自由コンピューティングにより、最近勢いを増している。
SNNは、大規模なモデルのための人工知能ニューラルネットワーク(ANN)と同様の精度に達するために、非常に長いスパイク列車(1000台まで)を必要とする。
ニューラルエンコーディングでSNNを効率的にサポートできる新しいハードウェアアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-06-06T10:56:25Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。