論文の概要: Genesis: A Spiking Neuromorphic Accelerator With On-chip Continual Learning
- arxiv url: http://arxiv.org/abs/2509.05858v1
- Date: Sat, 06 Sep 2025 22:53:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.742091
- Title: Genesis: A Spiking Neuromorphic Accelerator With On-chip Continual Learning
- Title(参考訳): Genesis: オンチップで連続学習できるスパイクニューロモルフィック加速器
- Authors: Vedant Karia, Abdullah Zyarah, Dhireesha Kudithipudi,
- Abstract要約: 連続学習は、現実世界の環境で相互作用する人工エージェントにとって重要である。
このアーキテクチャは、破滅的な忘れを和らげるために、活動に依存したメタ可塑性のような神経刺激的なメカニズムをサポートする。
その結果、ジェネシスの平均分類精度はタスクに依存しないスプリット-MNISTベンチマークで74.6%、消費電力は65nmのテクノロジーノードで17.08mWであることがわかった。
- 参考スコア(独自算出の注目度): 0.9138544560418844
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Continual learning, the ability to acquire and transfer knowledge through a models lifetime, is critical for artificial agents that interact in real-world environments. Biological brains inherently demonstrate these capabilities while operating within limited energy and resource budgets. Achieving continual learning capability in artificial systems considerably increases memory and computational demands, and even more so when deploying on platforms with limited resources. In this work, Genesis, a spiking continual learning accelerator, is proposed to address this gap. The architecture supports neurally inspired mechanisms, such as activity-dependent metaplasticity, to alleviate catastrophic forgetting. It integrates low-precision continual learning parametersand employs a custom data movement strategy to accommodate the sparsely distributed spikes. Furthermore, the architecture features a memory mapping technique that places metaplasticity parameters and synaptic weights in a single address location for faster memory access. Results show that the mean classification accuracy for Genesis is 74.6% on a task-agnostic split-MNIST benchmark with power consumption of 17.08mW in a 65nm technology node.
- Abstract(参考訳): 連続学習は、モデルライフタイムを通じて知識を取得し、伝達する能力であり、現実世界の環境で相互作用する人工エージェントにとって重要である。
生物学的脳は、限られたエネルギーと資源予算内で活動しながら、これらの能力を本質的に実証する。
人工システムにおける連続的な学習能力の獲得は、メモリと計算要求を大幅に増加させ、リソースが限られているプラットフォームにデプロイする上でさらに大きな意味を持つ。
本研究では、このギャップに対処するために、スパイク連続学習アクセラレーターであるGenesisを提案する。
このアーキテクチャは、破滅的な忘れを和らげるために、活動に依存したメタ可塑性のような神経刺激的なメカニズムをサポートする。
低精度の連続学習パラメータを統合し、スパース分散スパイクに対応するためにカスタムデータムーブメント戦略を採用している。
さらに、このアーキテクチャは、メモリアクセスを高速化するために、メタ可塑性パラメータとシナプス重みを単一のアドレス位置に配置するメモリマッピング技術を備えている。
その結果、ジェネシスの平均分類精度はタスクに依存しないスプリット-MNISTベンチマークで74.6%、消費電力は65nmのテクノロジーノードで17.08mWであることがわかった。
関連論文リスト
- Memory-Augmented Transformers: A Systematic Review from Neuroscience Principles to Enhanced Model Architectures [4.942399246128045]
記憶は知性の基本であり、生物学的および人工システム間の学習、推論、適応性を可能にする。
トランスフォーマーはシーケンスモデリングにおいて優れているが、長距離コンテキスト保持、連続学習、知識統合において制限に直面している。
このレビューでは、動的多時間記憶、選択的注意、統合など、神経科学の原則をブリッジする統一的な枠組みを提示する。
論文 参考訳(メタデータ) (2025-08-14T16:48:38Z) - Embedded FPGA Acceleration of Brain-Like Neural Networks: Online Learning to Scalable Inference [0.0]
高レベル合成を用いた Zynq UltraScale+ システム上で,BCPNN 用の最初の FPGA アクセラレータを提案する。
私たちのアクセラレータは、ARMベースライン上で最大17.5倍のレイテンシと94%の省エネを実現しています。
この作業により、エッジデバイス上での実用的なニューロモーフィックコンピューティングが可能になり、脳に似た学習と現実世界のデプロイメントのギャップを埋める。
論文 参考訳(メタデータ) (2025-06-23T11:35:20Z) - Single Neuromorphic Memristor closely Emulates Multiple Synaptic
Mechanisms for Energy Efficient Neural Networks [71.79257685917058]
我々はこれらのシナプス機能を本質的にエミュレートするSrTiO3に基づく膜状ナノデバイスを実証する。
これらのメムリスタは、安定かつエネルギー効率の良い運転を可能にする非定常低導電系で機能する。
論文 参考訳(メタデータ) (2024-02-26T15:01:54Z) - EMN: Brain-inspired Elastic Memory Network for Quick Domain Adaptive Feature Mapping [57.197694698750404]
本稿では,特徴と予測のマッピングを高速に微調整するための,勾配のない新しいElastic Memory Networkを提案する。
EMNはランダムに結合したニューロンを用いて特徴とラベルの関連を記憶し、ネットワーク内のシグナルはインパルスとして伝播する。
EMNは、従来のドメイン適応手法の1%以下のタイミングコストしか必要とせず、最大10%の性能向上を達成することができる。
論文 参考訳(メタデータ) (2024-02-04T09:58:17Z) - SpikingJelly: An open-source machine learning infrastructure platform
for spike-based intelligence [51.6943465041708]
スパイキングニューラルネットワーク(SNN)は、高エネルギー効率のニューロモルフィックチップに脳にインスパイアされたインテリジェンスを実現することを目的としている。
我々は、ニューロモルフィックデータセットの事前処理、深層SNNの構築、パラメータの最適化、およびニューロモルフィックチップへのSNNのデプロイのためのフルスタックツールキットをコントリビュートする。
論文 参考訳(メタデータ) (2023-10-25T13:15:17Z) - Improving Performance in Continual Learning Tasks using Bio-Inspired
Architectures [4.2903672492917755]
我々は,シナプスの可塑性機構とニューロ変調を組み込んだ,生物学的にインスパイアされた軽量ニューラルネットワークアーキテクチャを開発した。
提案手法により,Split-MNIST,Split-CIFAR-10,Split-CIFAR-100データセット上でのオンライン連続学習性能が向上する。
さらに,鍵設計概念を他のバックプロパゲーションに基づく連続学習アルゴリズムに統合することにより,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-08-08T19:12:52Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Reducing Catastrophic Forgetting in Self Organizing Maps with
Internally-Induced Generative Replay [67.50637511633212]
生涯学習エージェントは、パターン知覚データの無限のストリームから継続的に学習することができる。
適応するエージェントを構築する上での歴史的難しさの1つは、ニューラルネットワークが新しいサンプルから学ぶ際に、以前取得した知識を維持するのに苦労していることである。
この問題は破滅的な忘れ(干渉)と呼ばれ、今日の機械学習の領域では未解決の問題のままである。
論文 参考訳(メタデータ) (2021-12-09T07:11:14Z) - P-CRITICAL: A Reservoir Autoregulation Plasticity Rule for Neuromorphic
Hardware [4.416484585765027]
繰り返し発生する人工ニューラルネットワーク上のバックプロパゲーションアルゴリズムは、時間とともに蓄積された状態の展開を必要とする。
自動貯水池調整のためのP-CRITICALという新しい局所塑性則を提案する。
パラメータをチューニングすることなく、様々なモーダルからくるタスクの性能改善を観察する。
論文 参考訳(メタデータ) (2020-09-11T18:13:03Z) - Optimizing Memory Placement using Evolutionary Graph Reinforcement
Learning [56.83172249278467]
大規模検索空間を対象とした進化グラフ強化学習(EGRL)を提案する。
我々は、推論のために、Intel NNP-Iチップ上で、我々のアプローチを直接訓練し、検証する。
また,NNP-Iコンパイラと比較して28~78%の高速化を実現している。
論文 参考訳(メタデータ) (2020-07-14T18:50:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。