論文の概要: Memory-Augmented Spiking Networks: Synergistic Integration of Complementary Mechanisms for Neuromorphic Vision
- arxiv url: http://arxiv.org/abs/2603.08730v1
- Date: Sat, 21 Feb 2026 01:42:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-15 16:38:22.503976
- Title: Memory-Augmented Spiking Networks: Synergistic Integration of Complementary Mechanisms for Neuromorphic Vision
- Title(参考訳): 記憶強化スパイキングネットワーク:ニューロモルフィック視覚の相補的メカニズムの相乗的統合
- Authors: Effiong Blessing, Chiung-Yi Tseng, Isaac Nkrumah, Junaid Rehman,
- Abstract要約: スパイキングニューラルネットワーク(SNN)は生物学的な可視性とエネルギー効率を提供する。
我々は,Laky Hierarchical-Fire ニューロン,Integrated Contrastive Learning (SCL), Hopfield Networks, Supervised Recurrent Networks (HGRN) をN-MNISTデータセット上で統合した5モデルアブレーション研究を行った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Spiking Neural Networks (SNNs) provide biological plausibility and energy efficiency, yet systematic investigations of memory augmentation strategies remain limited. We conduct a five-model ablation study integrating Leaky Integrate-and-Fire neurons, Supervised Contrastive Learning (SCL), Hopfield networks, and Hierarchical Gated Recurrent Networks (HGRN) on the N-MNIST dataset. Baseline SNNs exhibit organized neuronal groupings, or structured assemblies, characterized by a silhouette score of $0.687 \pm 0.012$. Individual augmentations introduce trade-offs: SCL improves accuracy by $0.28\%$ but reduces clustering (silhouette score $0.637 \pm 0.015$), while HGRN yields consistent gains in both accuracy ($+1.01\%$) and computational efficiency ($170.6\times$). Full integration achieves a balanced improvement across metrics, reaching a silhouette score of $0.715 \pm 0.008$, classification accuracy of $97.49 \pm 0.10\%$, energy consumption of $1.85 \pm 0.06\,μ\mathrm{J}$, and sparsity of $97.0\%$. These results indicate that optimal performance emerges from architectural balance rather than isolated optimization, establishing design principles for memory-augmented neuromorphic systems.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は生物学的な可視性とエネルギー効率を提供するが、メモリ増強戦略の体系的な研究は限られている。
我々は,Laky Integrate-and-Fire ニューロン,Supervised Contrastive Learning (SCL),Hopfield Networks,Hierarchical Gated Recurrent Networks (HGRN)をN-MNISTデータセット上で統合した5モデルアブレーション研究を行った。
ベースラインSNNは、組織化された神経細胞のグルーピング(または構造化された集合体)を示し、シルエットスコアは0.687 \pm 0.012$である。
SCLは精度を0.28\%$で改善するが、クラスタリング(シルエットスコアは0.637 \pm 0.015$)を減らし、HGRNは精度(+1.01\%$)と計算効率(170.6\times$)の両方で一貫した利得を得る。
完全な統合は、メトリクス間のバランスの取れた改善を実現し、シルエットスコア0.715 \pm 0.008$、分類精度9.7.49 \pm 0.10\%$、エネルギー消費1.85 \pm 0.06\,μ\mathrm{J}$、間隔9.0\%$に達する。
これらの結果から, メモリ拡張ニューロモルフィックシステムの設計原理を確立することにより, アーキテクチャバランスから最適性能が生じることが示唆された。
関連論文リスト
- Evolution Strategies at the Hyperscale [57.75314521465674]
本稿では,大集団にバックプロップフリーな最適化を拡大するための進化戦略(ES)アルゴリズムEGGROLLを紹介する。
ESは、微分不可能またはノイズの多い目的を処理できる強力なブラックボックス最適化手法のセットである。
EGGROLLはランダム行列を$Ain mathbbRmtimes r, Bin mathbbRntimes r$ with $rll min(m,n)$ とすることでこれらのボトルネックを克服し、低ランク行列摂動を$A Btop$とする。
論文 参考訳(メタデータ) (2025-11-20T18:56:05Z) - NM-Hebb: Coupling Local Hebbian Plasticity with Metric Learning for More Accurate and Interpretable CNNs [0.0]
NM-Hebbは神経刺激による局所的可塑性と遠隔監視を統合している。
フェーズ1は、クロスエントロピーの目標を共同で最適化することで、標準的な教師付きトレーニングを拡張します。
フェーズ2は、一対のメートル法学習損失でバックボーンを微調整する。
論文 参考訳(メタデータ) (2025-08-27T13:53:04Z) - Constructive Universal Approximation and Sure Convergence for Multi-Layer Neural Networks [0.0]
o1Neuroはスパースインジケータ活性化ニューロン上に構築された新しいニューラルネットワークモデルである。
人口レベルでは、深い o1Neuro は $boldsymbolX$ の任意の可測関数を近似することができる。
サンプルレベルでは、o1Neuroの最適化は、十分に多くの更新ラウンドの後、確率が1に近づく最適モデルに達する。
論文 参考訳(メタデータ) (2025-07-07T08:55:28Z) - Global Convergence and Rich Feature Learning in $L$-Layer Infinite-Width Neural Networks under $μ$P Parametrization [66.03821840425539]
本稿では, テンソル勾配プログラム(SGD)フレームワークを用いた$L$層ニューラルネットワークのトレーニング力学について検討する。
SGDにより、これらのネットワークが初期値から大きく逸脱する線形独立な特徴を学習できることを示す。
このリッチな特徴空間は、関連するデータ情報をキャプチャし、トレーニングプロセスの収束点が世界最小であることを保証する。
論文 参考訳(メタデータ) (2025-03-12T17:33:13Z) - High-Performance Temporal Reversible Spiking Neural Networks with $O(L)$ Training Memory and $O(1)$ Inference Cost [32.44622524827913]
スパイキングニューラルネットワーク(SNN)は、トレーニング中のメモリ要求を増大させ、推論エネルギーコストを増大させる。
本研究では、トレーニングと推論の課題に共同で取り組むために、SNN(T-RevSNN)のための新しい時間的可逆アーキテクチャを提案する。
T-RevSNNはImageNet上で優れた精度を実現し、メモリ効率、トレーニング時間加速度、推論エネルギー効率を大幅に改善することができる。
論文 参考訳(メタデータ) (2024-05-26T07:26:56Z) - LSTM-CNN: An efficient diagnostic network for Parkinson's disease
utilizing dynamic handwriting analysis [2.1063903985563988]
我々は,患者の動的手書き信号の特徴的な手書きパターンを分析するために,コンパクトで効率的なネットワークアーキテクチャを設計する。
提案したネットワークは、長期記憶(LSTM)と畳み込みニューラルネットワーク(CNN)の両方の利点をフル活用したハイブリッドディープラーニングアプローチに基づいている。
論文 参考訳(メタデータ) (2023-11-20T13:34:08Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Different Spectral Representations in Optimized Artificial Neural
Networks and Brains [2.213723689024101]
より大きなパワー(約2~3)は、より高い検証精度と高密度ネットワークに対する敵攻撃に対する堅牢性をもたらすことを示す。
畳み込みネットワークの場合、最高の$alpha$値はタスクの複雑さと評価基準に依存する。
論文 参考訳(メタデータ) (2022-08-22T20:13:20Z) - Neural Capacitance: A New Perspective of Neural Network Selection via
Edge Dynamics [85.31710759801705]
現在の実践は、性能予測のためのモデルトレーニングにおいて高価な計算コストを必要とする。
本稿では,学習中のシナプス接続(エッジ)上の制御ダイナミクスを解析し,ニューラルネットワーク選択のための新しいフレームワークを提案する。
我々のフレームワークは、ニューラルネットワークトレーニング中のバックプロパゲーションがシナプス接続の動的進化と等価であるという事実に基づいて構築されている。
論文 参考訳(メタデータ) (2022-01-11T20:53:15Z) - Scalable Lipschitz Residual Networks with Convex Potential Flows [120.27516256281359]
残差ネットワーク勾配流における凸ポテンシャルを用いることで,1ドルのLipschitz変換が組み込まれていることを示す。
CIFAR-10の包括的な実験は、アーキテクチャのスケーラビリティと、証明可能な防御に$ell$のアプローチの利点を実証している。
論文 参考訳(メタデータ) (2021-10-25T07:12:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。