論文の概要: NSPDI-SNN: An efficient lightweight SNN based on nonlinear synaptic pruning and dendritic integration
- arxiv url: http://arxiv.org/abs/2508.21566v1
- Date: Fri, 29 Aug 2025 12:22:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-01 19:45:11.039229
- Title: NSPDI-SNN: An efficient lightweight SNN based on nonlinear synaptic pruning and dendritic integration
- Title(参考訳): NSPDI-SNN:非線形シナプスプルーニングと樹状体統合に基づく効率的な軽量SNN
- Authors: Wuque Cai, Hongze Sun, Jiayi He, Qianqian Liao, Yunliang Zang, Duo Chen, Dezhong Yao, Daqing Guo,
- Abstract要約: スパイキングニューラルネットワーク(スパイキングニューラルネットワーク、英: Spiking Neural Network、SNN)は、生体ニューロンを模擬したニューラルネットワークである。
本研究では,非線形プルーニングとデンドライトを併用した効率的な軽量SNN法を提案する。
- 参考スコア(独自算出の注目度): 9.078615173410727
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking neural networks (SNNs) are artificial neural networks based on simulated biological neurons and have attracted much attention in recent artificial intelligence technology studies. The dendrites in biological neurons have efficient information processing ability and computational power; however, the neurons of SNNs rarely match the complex structure of the dendrites. Inspired by the nonlinear structure and highly sparse properties of neuronal dendrites, in this study, we propose an efficient, lightweight SNN method with nonlinear pruning and dendritic integration (NSPDI-SNN). In this method, we introduce nonlinear dendritic integration (NDI) to improve the representation of the spatiotemporal information of neurons. We implement heterogeneous state transition ratios of dendritic spines and construct a new and flexible nonlinear synaptic pruning (NSP) method to achieve the high sparsity of SNN. We conducted systematic experiments on three benchmark datasets (DVS128 Gesture, CIFAR10-DVS, and CIFAR10) and extended the evaluation to two complex tasks (speech recognition and reinforcement learning-based maze navigation task). Across all tasks, NSPDI-SNN consistently achieved high sparsity with minimal performance degradation. In particular, our method achieved the best experimental results on all three event stream datasets. Further analysis showed that NSPDI significantly improved the efficiency of synaptic information transfer as sparsity increased. In conclusion, our results indicate that the complex structure and nonlinear computation of neuronal dendrites provide a promising approach for developing efficient SNN methods.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、生体ニューロンを模擬した人工ニューラルネットワークであり、最近の人工知能技術研究で注目を集めている。
生体ニューロンのデンドライトは効率的な情報処理能力と計算能力を持つが、SNNのニューロンはデンドライトの複雑な構造とほとんど一致しない。
本研究では, 非線形プルーニングおよびデンドライト結合(NSPDI-SNN)を用いた効率的な軽量SNN法を提案する。
本研究では,ニューロンの時空間情報表現を改善するために非線形樹状体積分(NDI)を導入する。
樹状突起の異種状態遷移比を実装し,新しい非線形シナプスプルーニング法(NSP法)を構築し,SNNの高分散性を実現する。
我々は3つのベンチマークデータセット(DVS128 Gesture, CIFAR10-DVS, CIFAR10)の体系的な実験を行い、その評価を2つの複雑なタスク(音声認識と強化学習に基づく迷路ナビゲーションタスク)に拡張した。
すべてのタスクにおいて、NSPDI-SNNは、パフォーマンスの低下を最小限に抑えながら、常に高い疎性を実現した。
特に,本手法は,3つのイベントストリームデータセットに対して,最も優れた実験結果を得た。
さらに解析したところ, NSPDIはシナプス情報伝達の効率を有意に改善した。
その結果, 神経樹状突起の複雑な構造と非線形計算は, 効率的なSNN法の開発に有望なアプローチであることがわかった。
関連論文リスト
- Flexible and Scalable Deep Dendritic Spiking Neural Networks with Multiple Nonlinear Branching [39.664692909673086]
本稿では,複数の樹状突起枝に非線形力学を組み込んだ樹状突起スパイクニューロン(DendSN)を提案する。
点スパイクニューロンと比較すると、デンドSNははるかに高い発現を示す。
本研究は,従来のSNNに匹敵する深度とスケールで,生物解析可能な樹状SNNを訓練する可能性を実証するものである。
論文 参考訳(メタデータ) (2024-12-09T10:15:46Z) - Deep-Unrolling Multidimensional Harmonic Retrieval Algorithms on Neuromorphic Hardware [78.17783007774295]
本稿では,高精度かつエネルギー効率の高い単発多次元高調波検索のための変換に基づくニューロモルフィックアルゴリズムの可能性について検討する。
複雑な値の畳み込み層と活性化をスパイクニューラルネットワーク(SNN)に変換する新しい手法を開発した。
変換されたSNNは、元のCNNに比べて性能が低下し、ほぼ5倍の電力効率を実現している。
論文 参考訳(メタデータ) (2024-12-05T09:41:33Z) - Exploiting Heterogeneity in Timescales for Sparse Recurrent Spiking Neural Networks for Energy-Efficient Edge Computing [16.60622265961373]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックコンピューティングの最前線である。
本稿では,SNNのパフォーマンスに革命をもたらす3つの画期的な研究をまとめる。
論文 参考訳(メタデータ) (2024-07-08T23:33:12Z) - SpikingJelly: An open-source machine learning infrastructure platform
for spike-based intelligence [51.6943465041708]
スパイキングニューラルネットワーク(SNN)は、高エネルギー効率のニューロモルフィックチップに脳にインスパイアされたインテリジェンスを実現することを目的としている。
我々は、ニューロモルフィックデータセットの事前処理、深層SNNの構築、パラメータの最適化、およびニューロモルフィックチップへのSNNのデプロイのためのフルスタックツールキットをコントリビュートする。
論文 参考訳(メタデータ) (2023-10-25T13:15:17Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - On the Intrinsic Structures of Spiking Neural Networks [66.57589494713515]
近年、時間依存データやイベント駆動データを扱う大きな可能性から、SNNへの関心が高まっている。
スパイキング計算における本質的な構造の影響を総合的に調査する研究が数多く行われている。
この研究はSNNの本質的な構造を深く掘り下げ、SNNの表現性への影響を解明する。
論文 参考訳(メタデータ) (2022-06-21T09:42:30Z) - A Synapse-Threshold Synergistic Learning Approach for Spiking Neural
Networks [1.8556712517882232]
スパイキングニューラルネットワーク(SNN)は、さまざまなインテリジェントなシナリオにおいて優れた機能を示している。
本研究では,SNNにおけるシナプス重みとスパイク閾値を同時に学習する新しいシナジー学習手法を開発する。
論文 参考訳(メタデータ) (2022-06-10T06:41:36Z) - SIT: A Bionic and Non-Linear Neuron for Spiking Neural Network [12.237928453571636]
スパイキングニューラルネットワーク(SNN)は、時間的情報処理能力と消費電力の低さから、研究者の関心を喚起している。
現在の最先端の手法は、ニューロンが単純な Leaky-Integrate-and-Fire (LIF) モデルに基づいて構築されているため、生物学的な可視性と性能を制限している。
高レベルの動的複雑さのため、現代のニューロンモデルがSNNの実践で実装されることはめったにない。
論文 参考訳(メタデータ) (2022-03-30T07:50:44Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。