論文の概要: PC-SNN: Predictive Coding-based Local Hebbian Plasticity Learning in Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2211.15386v2
- Date: Tue, 16 Sep 2025 03:30:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:52.493751
- Title: PC-SNN: Predictive Coding-based Local Hebbian Plasticity Learning in Spiking Neural Networks
- Title(参考訳): PC-SNN:スパイクニューラルネットワークにおける予測符号化に基づく局所ヘビアン塑性学習
- Authors: Haidong Wang, Xiaogang Xiong, Mengting Lan, Yinghao Chu, Zixuan Jiang, KC Santosh, Shimin Wang, Renxin Zhong,
- Abstract要約: Spiking Neural Networks (SNN) は、脳の情報処理を非並列な生物学的確率でエミュレートする。
そこで我々は,PC-SNNを提案する。PC-SNNは,予測符号化をSNNと統合し,生物学的に可塑性,局所的なヘビアン可塑性を実現する学習フレームワークである。
- 参考スコア(独自算出の注目度): 9.026880521552153
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking Neural Networks (SNNs), regarded as the third generation of neural networks, emulate the brain's information processing with unparalleled biological plausibility compared to traditional neural networks. However, their non-linear, event-driven dynamics pose significant challenges for training, and existing methods often deviate from neuroscientific principles of cortical learning. Drawing inspiration from predictive coding theory-a leading model of brain information processing-we propose PC-SNN, a novel learning framework that integrates predictive coding with SNNs to enable biologically plausible, local Hebbian plasticity without reliance on backpropagation. Unlike conventional SNN training approaches, PC-SNN leverages only local computations, aligning with the brain's distributed processing and overcoming the biological implausibility of global error propagation. Our classification model achieves competitive performance on the benchmark datasets, including Caltech Face/Motorbike, MNIST, and CIFAR10, surpassing state-of-the-art multi-layer SNNs. Furthermore, our predictive coding-based regression model outperforms backpropagation-based methods while adhering to local plasticity constraints, offering a scalable and biologically grounded alternative for SNN training. PC-SNN drives progress in neuromorphic computing through validating the adaptability of bio-inspired algorithms within spiking neural architectures, but also unveils novel understandings of neurocognitive learning processes, presenting a conceptual framework distinguished by its theoretical originality and functional efficacy.
- Abstract(参考訳): ニューラルネットの第3世代と見なされるスパイキングニューラルネットワーク(SNN)は、従来のニューラルネットと比較して、非平行な生物学的確率で脳の情報処理をエミュレートする。
しかし、その非線形でイベント駆動のダイナミクスはトレーニングに重大な課題をもたらし、既存の手法は皮質学習の神経科学的原則から逸脱することが多い。
脳情報処理の最前線モデルである予測符号化理論からインスピレーションを得たPC-SNNを提案する。
従来のSNNトレーニングアプローチとは異なり、PC-SNNは局所的な計算のみを活用し、脳の分散処理と整合し、大域的なエラー伝播の生物学的不確実性を克服する。
我々の分類モデルは、Caltech Face/Motorbike、MNIST、CIFAR10などのベンチマークデータセット上で、最先端の多層SNNを上回る競争性能を達成する。
さらに, 予測符号化に基づく回帰モデルは, 局所的可塑性制約に順応しながら, バックプロパゲーションに基づく手法より優れており, SNNトレーニングのスケーラブルで生物学的な代替手段を提供する。
PC-SNNは、スパイク神経アーキテクチャにおけるバイオインスパイアされたアルゴリズムの適応性を検証することによって、ニューロモーフィックコンピューティングの進歩を促進する一方で、神経認知学習プロセスの新たな理解を明らかにし、その理論的独創性と機能的有効性によって区別される概念的枠組みを提示している。
関連論文リスト
- General Self-Prediction Enhancement for Spiking Neurons [71.01912385372577]
スパイキングニューラルネットワーク(SNN)は、イベント駆動のスパース計算によって非常にエネルギー効率が良いが、そのトレーニングは、性能、効率、生物学的妥当性の非微分可能性とトレードオフによって困難である。
本稿では,その入力出力履歴から内部予測電流を生成し,膜電位を変調する自己予測強化スパイキングニューロン法を提案する。
この設計には2つの利点があり、失明した勾配を緩和し、トレーニングの安定性と精度を高める連続的な勾配経路を作成し、また遠位樹状突起変調とエラー駆動のシナプス塑性に類似した生物学的原理と整合する。
論文 参考訳(メタデータ) (2026-01-29T15:08:48Z) - CogniSNN: Enabling Neuron-Expandability, Pathway-Reusability, and Dynamic-Configurability with Random Graph Architectures in Spiking Neural Networks [13.913208605378854]
スパイキングニューラルネットワーク(SNN)は、人工知能と計算神経科学のギャップを埋めることが期待されている。
我々はランダムグラフアーキテクチャ(RGA)を取り入れた新しいSNNパラダイムであるCognition-aware SNN(Cognition-aware SNN)を導入する。
論文 参考訳(メタデータ) (2025-12-12T17:36:31Z) - Learning Internal Biological Neuron Parameters and Complexity-Based Encoding for Improved Spiking Neural Networks Performance [0.0]
本研究では、従来のパーセプトロンモデルを生物学的に誘発される確率論的メタニューロンモデルに置き換えることで、新しいアプローチを導入する。
第2の鍵となる貢献として、SNNとLe-Ziv可塑性(LZC)を一意に統合する、生物学的にインスパイアされた新しい分類フレームワークを提案する。
本稿では,バックプロパゲーション,スパイク刺激型アスペクト依存型可塑性(STDP),テンポトロン学習規則などの学習アルゴリズムを検討する。
論文 参考訳(メタデータ) (2025-08-08T09:14:49Z) - CogniSNN: A First Exploration to Random Graph Architecture based Spiking Neural Networks with Enhanced Expandability and Neuroplasticity [8.24896024250985]
本稿では,ランダムグラフアーキテクチャ(RGA)を用いたニューラルネットワーク(SNN)の新しいモデリングパラダイムを開発する。
We improve the expansionability and neuroplasticity of CogniSNN by introduced a modified spiking residual neural node (ResNode)
実験により、ResNodeを再設計したCogniSNNは、より少ないパラメータを持つニューロモルフィックデータセットにおいて顕著に機能することが示された。
論文 参考訳(メタデータ) (2025-05-09T12:21:23Z) - Scalable Mechanistic Neural Networks [52.28945097811129]
長い時間的シーケンスを含む科学機械学習応用のための拡張ニューラルネットワークフレームワークを提案する。
元のメカニスティックニューラルネットワーク (MNN) を再構成することにより、計算時間と空間の複雑さを、それぞれ、列長に関して立方体と二次体から線形へと減少させる。
大規模な実験により、S-MNNは元のMNNと精度で一致し、計算資源を大幅に削減した。
論文 参考訳(メタデータ) (2024-10-08T14:27:28Z) - Contrastive Learning in Memristor-based Neuromorphic Systems [55.11642177631929]
スパイクニューラルネットワークは、現代のバックプロパゲーションによって訓練されたディープネットワークに直面する重要な制約の多くを横取りする、ニューロンベースのモデルの重要なファミリーとなっている。
本研究では,前向き・後向き学習のニューロモルフィック形式であるコントラッシブ・シグナル依存型塑性(CSDP)の概念実証を設計し,検討する。
論文 参考訳(メタデータ) (2024-09-17T04:48:45Z) - BKDSNN: Enhancing the Performance of Learning-based Spiking Neural Networks Training with Blurred Knowledge Distillation [20.34272550256856]
スパイキングニューラルネットワーク(SNN)は、生物学的ニューラルネットワークを模倣し、離散スパイクを介して情報を伝達する。
本研究は,静的およびニューロモルフィックなデータセット上でSNNをトレーニングするための最先端性能を実現する。
論文 参考訳(メタデータ) (2024-07-12T08:17:24Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Training Spiking Neural Networks with Local Tandem Learning [96.32026780517097]
スパイキングニューラルネットワーク(SNN)は、前者よりも生物学的に可塑性でエネルギー効率が高いことが示されている。
本稿では,局所タンデム学習(Local Tandem Learning, LTL)と呼ばれる一般化学習規則を提案する。
CIFAR-10データセット上の5つのトレーニングエポック内に高速なネットワーク収束を示すとともに,計算複雑性が低い。
論文 参考訳(メタデータ) (2022-10-10T10:05:00Z) - Fluctuation-driven initialization for spiking neural network training [3.976291254896486]
スパイキングニューラルネットワーク(SNN)は、脳内の低出力でフォールトトレラントな情報処理を実現する。
我々は、脳内でよく見られるゆらぎ駆動型体制にインスパイアされたSNNの一般的な戦略を開発する。
論文 参考訳(メタデータ) (2022-06-21T09:48:49Z) - A Synapse-Threshold Synergistic Learning Approach for Spiking Neural
Networks [1.8556712517882232]
スパイキングニューラルネットワーク(SNN)は、さまざまなインテリジェントなシナリオにおいて優れた機能を示している。
本研究では,SNNにおけるシナプス重みとスパイク閾値を同時に学習する新しいシナジー学習手法を開発する。
論文 参考訳(メタデータ) (2022-06-10T06:41:36Z) - Linear Leaky-Integrate-and-Fire Neuron Model Based Spiking Neural
Networks and Its Mapping Relationship to Deep Neural Networks [7.840247953745616]
スパイキングニューラルネットワーク(SNN)は、生物学的可視性や教師なし学習能力など、脳にインスパイアされた機械学習アルゴリズムである。
本稿では,リニアリーキー・インテグレート・アンド・ファイア・モデル(LIF/SNN)の生物学的パラメータとReLU-AN/Deep Neural Networks(DNN)のパラメータとの正確な数学的マッピングを確立する。
論文 参考訳(メタデータ) (2022-05-31T17:02:26Z) - Advancing Residual Learning towards Powerful Deep Spiking Neural
Networks [16.559670769601038]
残留学習とショートカットは、ディープニューラルネットワークをトレーニングするための重要なアプローチとして証明されている。
MS-ResNetは、直接訓練されたSNNの深さを大幅に拡張することができる。
MS-ResNet 104はImageNetで76.02%の精度を達成した。
論文 参考訳(メタデータ) (2021-12-15T05:47:21Z) - BioGrad: Biologically Plausible Gradient-Based Learning for Spiking
Neural Networks [0.0]
スパイキングニューラルネットワーク(SNN)は、AI問題に対するエネルギー効率が高く、非常に並列で、低レイテンシのソリューションを提供している。
これらの計算的利点を利用するには、SNNは脳にインスパイアされたニューロモルフィックの原則に従う学習アルゴリズムによって訓練される必要がある。
本稿では,機能的にバックプロップと等価なSNNのための生物学的に妥当な勾配に基づく学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-10-27T00:07:25Z) - Exploiting Heterogeneity in Operational Neural Networks by Synaptic
Plasticity [87.32169414230822]
最近提案されたネットワークモデルであるオペレーショナルニューラルネットワーク(ONN)は、従来の畳み込みニューラルネットワーク(CNN)を一般化することができる。
本研究では, 生体ニューロンにおける本質的な学習理論を示すSynaptic Plasticityパラダイムに基づいて, ネットワークの隠蔽ニューロンに対する最強演算子集合の探索に焦点をあてる。
高難易度問題に対する実験結果から、神経細胞や層が少なくても、GISベースのONNよりも優れた学習性能が得られることが示された。
論文 参考訳(メタデータ) (2020-08-21T19:03:23Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Recurrent Neural Network Learning of Performance and Intrinsic
Population Dynamics from Sparse Neural Data [77.92736596690297]
本稿では,RNNの入出力動作だけでなく,内部ネットワークのダイナミクスも学習できる新しいトレーニング戦略を提案する。
提案手法は、RNNを訓練し、生理学的にインスパイアされた神経モデルの内部ダイナミクスと出力信号を同時に再現する。
注目すべきは、トレーニングアルゴリズムがニューロンの小さなサブセットの活性に依存する場合であっても、内部動力学の再現が成功することである。
論文 参考訳(メタデータ) (2020-05-05T14:16:54Z) - Convolutional Spiking Neural Networks for Spatio-Temporal Feature
Extraction [3.9898522485253256]
スパイキングニューラルネットワーク(SNN)は低消費電力および組み込みシステムで使用できる。
畳み込みニューラルネットワークやその他の種類のSNNの層における時間符号化はまだ研究されていない。
現実世界の問題に対処するための,新たな深層スパイクアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-27T11:58:51Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。