論文の概要: Algorithm-hardware co-design of neuromorphic networks with dual memory pathways
- arxiv url: http://arxiv.org/abs/2512.07602v2
- Date: Thu, 11 Dec 2025 16:28:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 14:11:15.189368
- Title: Algorithm-hardware co-design of neuromorphic networks with dual memory pathways
- Title(参考訳): 二重記憶経路を有するニューロモルフィックネットワークのアルゴリズム-ハードウェア共設計
- Authors: Pengfei Sun, Zhe Su, Jascha Achterberg, Giacomo Indiveri, Dan F. M. Goodman, Danyal Akarca,
- Abstract要約: イベント駆動センシングでは、スパイクニューラルネットワークが優れている。
長期にわたるタスク関連コンテキストの維持は、この分野における中核的な課題である。
我々は,新しいアルゴリズムとハードウェアの共同設計を通じて,この問題に対処する。
- 参考スコア(独自算出の注目度): 8.49692039836696
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking neural networks excel at event-driven sensing. Yet, maintaining task-relevant context over long timescales both algorithmically and in hardware, while respecting both tight energy and memory budgets, remains a core challenge in the field. We address this challenge through novel algorithm-hardware co-design effort. At the algorithm level, inspired by the cortical fast-slow organization in the brain, we introduce a neural network with an explicit slow memory pathway that, combined with fast spiking activity, enables a dual memory pathway (DMP) architecture in which each layer maintains a compact low-dimensional state that summarizes recent activity and modulates spiking dynamics. This explicit memory stabilizes learning while preserving event-driven sparsity, achieving competitive accuracy on long-sequence benchmarks with 40-60% fewer parameters than equivalent state-of-the-art spiking neural networks. At the hardware level, we introduce a near-memory-compute architecture that fully leverages the advantages of the DMP architecture by retaining its compact shared state while optimizing dataflow, across heterogeneous sparse-spike and dense-memory pathways. We show experimental results that demonstrate more than a 4x increase in throughput and over a 5x improvement in energy efficiency compared with state-of-the-art implementations. Together, these contributions demonstrate that biological principles can guide functional abstractions that are both algorithmically effective and hardware-efficient, establishing a scalable co-design paradigm for real-time neuromorphic computation and learning.
- Abstract(参考訳): イベント駆動センシングでは、スパイクニューラルネットワークが優れている。
しかし、タスク関連コンテキストをアルゴリズムとハードウェアの両方で長い時間スケールで維持することは、厳しいエネルギーとメモリの予算の両方を尊重する一方で、この分野における重要な課題である。
我々はこの課題に,アルゴリズムとハードウェアの新たな共同設計を通じて対処する。
アルゴリズムレベルでは、脳の皮質の高速低速構造にインスパイアされたニューラルネットワークを導入し、高速なスパイク活動と組み合わせることで、各層が最近のアクティビティを要約し、スパイキングダイナミクスを変調するコンパクトな低次元状態を維持するデュアルメモリ経路(DMP)アーキテクチャを実現する。
この明示的なメモリは、イベント駆動の間隔を保ちながら学習を安定化させ、同等の最先端のスパイクニューラルネットワークよりも40-60%少ないパラメータを持つロングシーケンスベンチマークでの競合精度を達成する。
ハードウェアレベルでは、異種スパーススパイクおよび高密度メモリ経路をまたいだデータフローを最適化しながら、そのコンパクトな共有状態を保ちながら、DMPアーキテクチャの利点を完全に活用する、ニアメモリ・コンピュートアーキテクチャを導入する。
本研究では,4倍以上のスループット向上と5倍以上のエネルギー効率向上を示す実験結果を示す。
これらの貢献により、生物学的原理がアルゴリズム的に効率的かつハードウェア効率の両方の関数的抽象化を導出し、リアルタイムなニューロモルフィック計算と学習のためのスケーラブルな共設計パラダイムを確立することが示される。
関連論文リスト
- Hardware-software co-exploration with racetrack memory based in-memory computing for CNN inference in embedded systems [54.045712360156024]
レーストラックメモリは、データ密度の高い製造を可能にする不揮発性技術である。
メモリセルを持つインメモリ演算回路は、メモリ密度と電力効率の両方に影響を与える。
レーストラックメモリに最適化された効率的なインメモリ畳み込みニューラルネットワーク(CNN)アクセラレータを提案する。
論文 参考訳(メタデータ) (2025-07-02T07:29:53Z) - Topology Optimization of Random Memristors for Input-Aware Dynamic SNN [44.38472635536787]
入力対応動的旋回型スパイクニューラルネットワーク(PRIME)のプルーニング最適化について紹介する。
信号表現の面では、PRIMEは脳固有のスパイキング機構をエミュレートするために、漏れやすい統合と発火のニューロンを使用する。
計算深度の動的調整にインスパイアされた再構成性のために、PRIMEは入力対応の動的早期停止ポリシーを採用している。
論文 参考訳(メタデータ) (2024-07-26T09:35:02Z) - Efficient and accurate neural field reconstruction using resistive memory [52.68088466453264]
デジタルコンピュータにおける従来の信号再構成手法は、ソフトウェアとハードウェアの両方の課題に直面している。
本稿では,スパース入力からの信号再構成のためのソフトウェア・ハードウェア協調最適化を用いた体系的アプローチを提案する。
この研究は、AI駆動の信号復元技術を進歩させ、将来の効率的で堅牢な医療AIと3Dビジョンアプリケーションへの道を開く。
論文 参考訳(メタデータ) (2024-04-15T09:33:09Z) - Resistive Memory-based Neural Differential Equation Solver for Score-based Diffusion Model [55.116403765330084]
スコアベースの拡散のような現在のAIGC法は、迅速性と効率性の点で依然として不足している。
スコアベース拡散のための時間連続型およびアナログ型インメモリ型ニューラル微分方程式解法を提案する。
我々は180nmの抵抗型メモリインメモリ・コンピューティング・マクロを用いて,我々の解を実験的に検証した。
論文 参考訳(メタデータ) (2024-04-08T16:34:35Z) - Single Neuromorphic Memristor closely Emulates Multiple Synaptic
Mechanisms for Energy Efficient Neural Networks [71.79257685917058]
我々はこれらのシナプス機能を本質的にエミュレートするSrTiO3に基づく膜状ナノデバイスを実証する。
これらのメムリスタは、安定かつエネルギー効率の良い運転を可能にする非定常低導電系で機能する。
論文 参考訳(メタデータ) (2024-02-26T15:01:54Z) - Heterogenous Memory Augmented Neural Networks [84.29338268789684]
ニューラルネットワークのための新しいヘテロジニアスメモリ拡張手法を提案する。
学習可能なメモリトークンをアテンション機構付きで導入することにより、膨大な計算オーバーヘッドを伴わずに性能を効果的に向上させることができる。
In-distriion (ID) と Out-of-distriion (OOD) の両方の条件下での様々な画像およびグラフベースのタスクに対するアプローチを示す。
論文 参考訳(メタデータ) (2023-10-17T01:05:28Z) - Biologically Plausible Learning on Neuromorphic Hardware Architectures [27.138481022472]
ニューロモルフィックコンピューティング(Neuromorphic Computing)は、アナログメモリの計算によってこの不均衡に直面している新興パラダイムである。
この研究は、異なる学習アルゴリズムがCompute-In-Memoryベースのハードウェアに与える影響を初めて比較し、その逆も行った。
論文 参考訳(メタデータ) (2022-12-29T15:10:59Z) - Towards Memory-Efficient Neural Networks via Multi-Level in situ
Generation [10.563649948220371]
ディープニューラルネットワーク(DNN)は、様々なタスクにおいて優れたパフォーマンスを示している。
それらが急速に進化するにつれて、そのエスカレーション計算とメモリ要求により、リソースに制約のあるエッジデバイスへのデプロイが困難になる。
超高速なオンチップ計算で高価なメモリトランザクションを交換するための汎用的で統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-25T18:50:24Z) - Robust High-dimensional Memory-augmented Neural Networks [13.82206983716435]
メモリ拡張ニューラルネットワークは、これらの問題を克服するために、明示的なメモリでニューラルネットワークを強化する。
この明示的なメモリへのアクセスは、各個々のメモリエントリを含むソフト読み取りおよび書き込み操作を介して行われる。
本稿では,高次元(HD)ベクトル上でのアナログインメモリ計算を行う明示メモリとして,計算メモリユニットを用いた頑健なアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-10-05T12:01:56Z) - Optimizing Memory Placement using Evolutionary Graph Reinforcement
Learning [56.83172249278467]
大規模検索空間を対象とした進化グラフ強化学習(EGRL)を提案する。
我々は、推論のために、Intel NNP-Iチップ上で、我々のアプローチを直接訓練し、検証する。
また,NNP-Iコンパイラと比較して28~78%の高速化を実現している。
論文 参考訳(メタデータ) (2020-07-14T18:50:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。