論文の概要: Neuromorphic Circuits with Spiking Astrocytes for Increased Energy Efficiency, Fault Tolerance, and Memory Capacitance
- arxiv url: http://arxiv.org/abs/2502.20492v1
- Date: Thu, 27 Feb 2025 19:55:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-03 13:43:37.039443
- Title: Neuromorphic Circuits with Spiking Astrocytes for Increased Energy Efficiency, Fault Tolerance, and Memory Capacitance
- Title(参考訳): スパイクアストロサイトを用いたニューロモルフィック回路によるエネルギー効率の向上,フォールトトレランス,メモリキャパシタンス
- Authors: Aybars Yunusoglu, Dexter Le, Murat Isik, I. Can Dikmen, Teoman Karadag,
- Abstract要約: 本稿では、スパイキングニューラルネットワーク(SNN)におけるLIFAモデルを紹介する。
我々のコアアーキテクチャは、ニューロン、シナプス、アストロサイト回路で構成され、各アストロサイトは、自己修復のために複数のニューロンをサポートする。
本モデルでは, 耐故障率81.10%, 耐力改善率18.90%を特徴とし, 他の実装をはるかに上回っている。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: In the rapidly advancing field of neuromorphic computing, integrating biologically-inspired models like the Leaky Integrate-and-Fire Astrocyte (LIFA) into spiking neural networks (SNNs) enhances system robustness and performance. This paper introduces the LIFA model in SNNs, addressing energy efficiency, memory management, routing mechanisms, and fault tolerance. Our core architecture consists of neurons, synapses, and astrocyte circuits, with each astrocyte supporting multiple neurons for self-repair. This clustered model improves fault tolerance and operational efficiency, especially under adverse conditions. We developed a routing methodology to map the LIFA model onto a fault-tolerant, many-core design, optimizing network functionality and efficiency. Our model features a fault tolerance rate of 81.10\% and a resilience improvement rate of 18.90\%, significantly surpassing other implementations. The results validate our approach in memory management, highlighting its potential as a robust solution for advanced neuromorphic computing applications. The integration of astrocytes represents a significant advancement, setting the stage for more resilient and adaptable neuromorphic systems.
- Abstract(参考訳): 急速に進歩するニューロモルフィックコンピューティングの分野では、Leaky Integrate-and-Fire Astrocyte (LIFA)のような生物学的にインスパイアされたモデルをスパイクニューラルネットワーク(SNN)に統合することで、システムの堅牢性と性能が向上する。
本稿では,SNNにおけるLIFAモデルについて紹介し,エネルギー効率,メモリ管理,ルーティング機構,耐故障性について述べる。
我々のコアアーキテクチャは、ニューロン、シナプス、アストロサイト回路で構成され、各アストロサイトは、自己修復のために複数のニューロンをサポートする。
このクラスタ化されたモデルは、特に悪条件下で、耐障害性と運用効率を向上させる。
我々は、LIFAモデルをフォールトトレラントで多コアな設計にマッピングし、ネットワーク機能と効率を最適化するルーティング手法を開発した。
本モデルでは, 耐故障率81.10\%, 耐力改善率18.90\%を特徴とする。
その結果, 高度なニューロモルフィックコンピューティングアプリケーションのための堅牢なソリューションとしての可能性を強調し, メモリ管理における我々のアプローチを検証した。
アストロサイトの統合は、よりレジリエントで適応可能なニューロモルフィックシステムのためのステージを設定できる重要な進歩を示す。
関連論文リスト
- Enhancing learning in spiking neural networks through neuronal heterogeneity and neuromodulatory signaling [52.06722364186432]
人工ニューラルネットワーク(ANN)の強化のための生物学的インフォームドフレームワークを提案する。
提案したデュアルフレームアプローチは、多様なスパイキング動作をエミュレートするためのスパイキングニューラルネットワーク(SNN)の可能性を強調している。
提案手法は脳にインスパイアされたコンパートメントモデルとタスク駆動型SNN, バイオインスピレーション, 複雑性を統合している。
論文 参考訳(メタデータ) (2024-07-05T14:11:28Z) - ON-OFF Neuromorphic ISING Machines using Fowler-Nordheim Annealers [4.5641369493712975]
本稿では,Ising問題の基底状態への収束を確保するために設計されたニューロモルフィックアーキテクチャであるNeuroSAを紹介する。
我々は,NeuroSAをSpiNNaker2プラットフォーム上で実装し,提案したアーキテクチャを標準的なニューロモルフィック・アクセラレーションプラットフォームにマッピングする可能性を強調した。
論文 参考訳(メタデータ) (2024-06-07T19:18:09Z) - Understanding the Functional Roles of Modelling Components in Spiking Neural Networks [9.448298335007465]
スパイキングニューラルネットワーク(SNN)は、生物学的忠実さで高い計算効率を達成することを約束している。
LIFに基づくSNNにおけるキーモデリングコンポーネント,リーク,リセット,再起動の機能的役割について検討する。
具体的には、メモリ保持とロバスト性のバランスにおいてリークが重要な役割を担い、リセット機構は未中断の時間的処理と計算効率に不可欠であり、リセットは、ロバストネス劣化を犠牲にして複雑なダイナミクスをモデル化する能力を強化する。
論文 参考訳(メタデータ) (2024-03-25T12:13:20Z) - Single Neuromorphic Memristor closely Emulates Multiple Synaptic
Mechanisms for Energy Efficient Neural Networks [71.79257685917058]
我々はこれらのシナプス機能を本質的にエミュレートするSrTiO3に基づく膜状ナノデバイスを実証する。
これらのメムリスタは、安定かつエネルギー効率の良い運転を可能にする非定常低導電系で機能する。
論文 参考訳(メタデータ) (2024-02-26T15:01:54Z) - Fully Spiking Denoising Diffusion Implicit Models [61.32076130121347]
スパイキングニューラルネットワーク(SNN)は、超高速のニューロモルフィックデバイス上で走る能力のため、かなりの注目を集めている。
本研究では,SNN内で拡散モデルを構築するために,拡散暗黙モデル (FSDDIM) を完全にスパイクする新しい手法を提案する。
提案手法は,最先端の完全スパイク生成モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-12-04T09:07:09Z) - SpikingJelly: An open-source machine learning infrastructure platform
for spike-based intelligence [51.6943465041708]
スパイキングニューラルネットワーク(SNN)は、高エネルギー効率のニューロモルフィックチップに脳にインスパイアされたインテリジェンスを実現することを目的としている。
我々は、ニューロモルフィックデータセットの事前処理、深層SNNの構築、パラメータの最適化、およびニューロモルフィックチップへのSNNのデプロイのためのフルスタックツールキットをコントリビュートする。
論文 参考訳(メタデータ) (2023-10-25T13:15:17Z) - Astrocyte-Integrated Dynamic Function Exchange in Spiking Neural
Networks [0.0]
本稿では,スパイキングニューラルネットワーク(SNN)の堅牢性と計算効率を向上させるための革新的な手法を提案する。
提案手法はヒト脳に広く分布するグリア細胞であるアストロサイトをSNNに統合し、アストロサイトを増強したネットワークを形成する。
特に、アストロサイトを拡張したSNNは、ほぼゼロのレイテンシと理論上無限のスループットを示し、計算効率が極めて高いことを示唆している。
論文 参考訳(メタデータ) (2023-09-15T08:02:29Z) - Efficient and Flexible Neural Network Training through Layer-wise Feedback Propagation [49.44309457870649]
ニューラルネットワークのような予測器のための新しいトレーニング原理であるLFP(Layer-wise Feedback Propagation)を提案する。
LFPは、与えられたタスクの解決へのそれぞれの貢献に基づいて、個々のニューロンに報酬を分解する。
提案手法は,ネットワークの有用な部分を補強し,有害な部分を弱めるという欲求的アプローチを実現する。
論文 参考訳(メタデータ) (2023-08-23T10:48:28Z) - The Expressive Leaky Memory Neuron: an Efficient and Expressive Phenomenological Neuron Model Can Solve Long-Horizon Tasks [64.08042492426992]
本稿では,脳皮質ニューロンの生物学的モデルであるExpressive Memory(ELM)ニューロンモデルを紹介する。
ELMニューロンは、上記の入力-出力関係を1万以下のトレーニング可能なパラメータと正確に一致させることができる。
本稿では,Long Range Arena(LRA)データセットなど,時間構造を必要とするタスクで評価する。
論文 参考訳(メタデータ) (2023-06-14T13:34:13Z) - Astromorphic Self-Repair of Neuromorphic Hardware Systems [0.8958368012475248]
本稿では,グリア細胞の自己修復,特にアストロサイトの役割について検討する。
ハードウェア・ソフトウェアの共同設計分析は、生体形態の天体制御が、ハードウェアの現実的な欠陥を自己修復する可能性があることを明らかにしている。
論文 参考訳(メタデータ) (2022-09-15T16:23:45Z) - Increasing Liquid State Machine Performance with Edge-of-Chaos Dynamics
Organized by Astrocyte-modulated Plasticity [0.0]
液体状態機械(LSM)は勾配のバックプロパゲーションなしで内部重量を調整する。
近年の知見は、アストロサイトがシナプスの可塑性と脳のダイナミクスを調節していることを示唆している。
本稿では, 自己組織的近接臨界力学を用いて, 性能の低いニューロン-アストロサイト液状状態機械 (NALSM) を提案する。
論文 参考訳(メタデータ) (2021-10-26T23:04:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。