論文の概要: CogniSNN: Enabling Neuron-Expandability, Pathway-Reusability, and Dynamic-Configurability with Random Graph Architectures in Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2512.11743v1
- Date: Fri, 12 Dec 2025 17:36:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-15 15:48:11.856925
- Title: CogniSNN: Enabling Neuron-Expandability, Pathway-Reusability, and Dynamic-Configurability with Random Graph Architectures in Spiking Neural Networks
- Title(参考訳): CogniSNN:スパイキングニューラルネットワークにおけるランダムグラフアーキテクチャによるニューロン拡張性、経路再利用性、動的構成性の実現
- Authors: Yongsheng Huang, Peibo Duan, Yujie Wu, Kai Sun, Zhipeng Liu, Changsheng Zhang, Bin Zhang, Mingkun Xu,
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、人工知能と計算神経科学のギャップを埋めることが期待されている。
我々はランダムグラフアーキテクチャ(RGA)を取り入れた新しいSNNパラダイムであるCognition-aware SNN(Cognition-aware SNN)を導入する。
- 参考スコア(独自算出の注目度): 13.913208605378854
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking neural networks (SNNs), regarded as the third generation of artificial neural networks, are expected to bridge the gap between artificial intelligence and computational neuroscience. However, most mainstream SNN research directly adopts the rigid, chain-like hierarchical architecture of traditional artificial neural networks (ANNs), ignoring key structural characteristics of the brain. Biological neurons are stochastically interconnected, forming complex neural pathways that exhibit Neuron-Expandability, Pathway-Reusability, and Dynamic-Configurability. In this paper, we introduce a new SNN paradigm, named Cognition-aware SNN (CogniSNN), by incorporating Random Graph Architecture (RGA). Furthermore, we address the issues of network degradation and dimensional mismatch in deep pathways by introducing an improved pure spiking residual mechanism alongside an adaptive pooling strategy. Then, we design a Key Pathway-based Learning without Forgetting (KP-LwF) approach, which selectively reuses critical neural pathways while retaining historical knowledge, enabling efficient multi-task transfer. Finally, we propose a Dynamic Growth Learning (DGL) algorithm that allows neurons and synapses to grow dynamically along the internal temporal dimension. Extensive experiments demonstrate that CogniSNN achieves performance comparable to, or even surpassing, current state-of-the-art SNNs on neuromorphic datasets and Tiny-ImageNet. The Pathway-Reusability enhances the network's continuous learning capability across different scenarios, while the dynamic growth algorithm improves robustness against interference and mitigates the fixed-timestep constraints during neuromorphic chip deployment. This work demonstrates the potential of SNNs with random graph structures in advancing brain-inspired intelligence and lays the foundation for their practical application on neuromorphic hardware.
- Abstract(参考訳): ニューラルネットワークの第3世代と見なされるスパイクニューラルネットワーク(SNN)は、人工知能と計算神経科学のギャップを埋めることが期待されている。
しかしながら、ほとんどのSNN研究は、従来の人工知能ニューラルネットワーク(ANN)の厳密な鎖状階層構造を直接採用し、脳の重要な構造的特徴を無視している。
生物学的ニューロンは確率的に相互接続され、ニューロン拡張性、パスウェイ再利用性、動的構成性を示す複雑な神経経路を形成する。
本稿では,ランダムグラフアーキテクチャ(RGA)を取り入れた新しいSNNパラダイムであるCognition-aware SNN(Cognition-aware SNN)を紹介する。
さらに,適応型プーリング戦略とともに純スパイク残留機構を改良することにより,ディープパスにおけるネットワーク劣化と次元ミスマッチの問題に対処する。
そして、重要な神経経路を選択的に再利用し、歴史的知識を保持しつつ、効率的なマルチタスク転送を可能にするキーパスウェイベース学習(KP-LwF)アプローチを設計する。
最後に、ニューロンとシナプスを内部時間次元に沿って動的に成長させる動的成長学習(DGL)アルゴリズムを提案する。
大規模な実験により、CogniSNNはニューロモルフィックデータセットやTiny-ImageNet上で、現在の最先端のSNNに匹敵する、あるいは超えるパフォーマンスを実現している。
Pathway-Reusabilityは、異なるシナリオにわたるネットワークの継続的学習能力を向上する一方、動的成長アルゴリズムは干渉に対する堅牢性を改善し、ニューロモルフィックチップデプロイメント中の固定時間制限を緩和する。
この研究は、脳にインスパイアされたインテリジェンスを進化させる上で、ランダムなグラフ構造を持つSNNの可能性を示し、ニューロモルフィックハードウェアへの実践的応用の基礎を定めている。
関連論文リスト
- General Self-Prediction Enhancement for Spiking Neurons [71.01912385372577]
スパイキングニューラルネットワーク(SNN)は、イベント駆動のスパース計算によって非常にエネルギー効率が良いが、そのトレーニングは、性能、効率、生物学的妥当性の非微分可能性とトレードオフによって困難である。
本稿では,その入力出力履歴から内部予測電流を生成し,膜電位を変調する自己予測強化スパイキングニューロン法を提案する。
この設計には2つの利点があり、失明した勾配を緩和し、トレーニングの安定性と精度を高める連続的な勾配経路を作成し、また遠位樹状突起変調とエラー駆動のシナプス塑性に類似した生物学的原理と整合する。
論文 参考訳(メタデータ) (2026-01-29T15:08:48Z) - Proxy Target: Bridging the Gap Between Discrete Spiking Neural Networks and Continuous Control [59.65431931190187]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上で低レイテンシかつエネルギー効率の意思決定を提供する。
連続制御のためのほとんどの連続制御アルゴリズムは、人工ニューラルネットワーク(ANN)のために設計されている。
このミスマッチはSNNのトレーニングを不安定にし、性能を劣化させる。
離散SNNと連続制御アルゴリズムのギャップを埋める新しいプロキシターゲットフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-30T03:08:03Z) - CogniSNN: A First Exploration to Random Graph Architecture based Spiking Neural Networks with Enhanced Expandability and Neuroplasticity [8.24896024250985]
本稿では,ランダムグラフアーキテクチャ(RGA)を用いたニューラルネットワーク(SNN)の新しいモデリングパラダイムを開発する。
We improve the expansionability and neuroplasticity of CogniSNN by introduced a modified spiking residual neural node (ResNode)
実験により、ResNodeを再設計したCogniSNNは、より少ないパラメータを持つニューロモルフィックデータセットにおいて顕著に機能することが示された。
論文 参考訳(メタデータ) (2025-05-09T12:21:23Z) - Flexible and Scalable Deep Dendritic Spiking Neural Networks with Multiple Nonlinear Branching [39.664692909673086]
本稿では,複数の樹状突起枝に非線形力学を組み込んだ樹状突起スパイクニューロン(DendSN)を提案する。
点スパイクニューロンと比較すると、デンドSNははるかに高い発現を示す。
本研究は,従来のSNNに匹敵する深度とスケールで,生物解析可能な樹状SNNを訓練する可能性を実証するものである。
論文 参考訳(メタデータ) (2024-12-09T10:15:46Z) - Augmenting learning in neuro-embodied systems through neurobiological first principles [42.810158068175646]
本稿では,最近のバイオインスパイアされたモデル,学習規則,人工ニューラルネットワークのアーキテクチャについて述べる。
我々は、神経科学とAIのギャップを埋める可能性を持つANNを増強するためのフレームワークを提案する。
課題駆動のスパイクニューラルネットワークとニューロモルフィックシステムに生物物理学の原理を統合することで、スケーラブルなソリューションが提供されることを示す。
論文 参考訳(メタデータ) (2024-07-05T14:11:28Z) - P-SpikeSSM: Harnessing Probabilistic Spiking State Space Models for Long-Range Dependency Tasks [1.9775291915550175]
スパイキングニューラルネットワーク(SNN)は、従来のニューラルネットワークに代わる計算効率が高く生物学的に妥当な代替品として提案されている。
長距離依存タスクのためのスケーラブルな確率的スパイク学習フレームワークを開発した。
我々のモデルは、様々な長距離依存タスクにまたがるSNNモデル間の最先端性能を実現する。
論文 参考訳(メタデータ) (2024-06-05T04:23:11Z) - Direct Training High-Performance Deep Spiking Neural Networks: A Review of Theories and Methods [33.377770671553336]
スパイキングニューラルネットワーク(SNN)は、人工ニューラルネットワーク(ANN)の代替として有望なエネルギー効率を提供する
本稿では,より深いSNNを高い性能で訓練するための理論と手法を要約する新しい視点を提供する。
論文 参考訳(メタデータ) (2024-05-06T09:58:54Z) - Stochastic Spiking Neural Networks with First-to-Spike Coding [7.955633422160267]
スパイキングニューラルネットワーク (SNN) は、その生物の楽観性とエネルギー効率で知られている。
本研究では,SNNアーキテクチャにおける新しい計算手法と情報符号化方式の融合について検討する。
提案手法のトレードオフを,精度,推論遅延,スパイク空間性,エネルギー消費,データセットの観点から検討する。
論文 参考訳(メタデータ) (2024-04-26T22:52:23Z) - SpikingJelly: An open-source machine learning infrastructure platform
for spike-based intelligence [51.6943465041708]
スパイキングニューラルネットワーク(SNN)は、高エネルギー効率のニューロモルフィックチップに脳にインスパイアされたインテリジェンスを実現することを目的としている。
我々は、ニューロモルフィックデータセットの事前処理、深層SNNの構築、パラメータの最適化、およびニューロモルフィックチップへのSNNのデプロイのためのフルスタックツールキットをコントリビュートする。
論文 参考訳(メタデータ) (2023-10-25T13:15:17Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Exploiting Noise as a Resource for Computation and Learning in Spiking
Neural Networks [32.0086664373154]
本研究では,雑音型スパイクニューラルネットワーク(NSNN)とノイズ駆動学習規則(NDL)を紹介する。
NSNNは、スケーラブルでフレキシブルで信頼性の高い計算をもたらす理論的なフレームワークを提供する。
論文 参考訳(メタデータ) (2023-05-25T13:21:26Z) - Multi-scale Evolutionary Neural Architecture Search for Deep Spiking
Neural Networks [7.271032282434803]
スパイキングニューラルネットワーク(SNN)のためのマルチスケール進化型ニューラルネットワーク探索(MSE-NAS)を提案する。
MSE-NASは脳にインスパイアされた間接的評価機能であるRepresentational Dissimilarity Matrices(RDMs)を介して、個々のニューロンの操作、複数の回路モチーフの自己組織化の統合、およびグローバルなモチーフ間の接続を進化させる
提案アルゴリズムは,静的データセットとニューロモルフィックデータセットのシミュレーションステップを短縮して,最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2023-04-21T05:36:37Z) - Deep Reinforcement Learning Guided Graph Neural Networks for Brain
Network Analysis [61.53545734991802]
本稿では,各脳ネットワークに最適なGNNアーキテクチャを探索する新しい脳ネットワーク表現フレームワークBN-GNNを提案する。
提案するBN-GNNは,脳ネットワーク解析タスクにおける従来のGNNの性能を向上させる。
論文 参考訳(メタデータ) (2022-03-18T07:05:27Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。