論文の概要: Spiking Neural Networks with Random Network Architecture
- arxiv url: http://arxiv.org/abs/2505.13622v1
- Date: Mon, 19 May 2025 18:03:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:52.473013
- Title: Spiking Neural Networks with Random Network Architecture
- Title(参考訳): ランダムネットワークアーキテクチャによるニューラルネットワークのスパイキング
- Authors: Zihan Dai, Huanfei Ma,
- Abstract要約: この研究は、ニューラルネットワークをスパイクするための新しいアーキテクチャであるRanSNNを提案している。
ニューラルネットワークをスパイクする従来のトレーニング手法と比較して、トレーニング性能を確保しながらトレーニング効率を大幅に向上し、ベンチマークテストで検証されたように、優れた汎用性と安定性を持つ。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The spiking neural network, known as the third generation neural network, is an important network paradigm. Due to its mode of information propagation that follows biological rationality, the spiking neural network has strong energy efficiency and has advantages in complex high-energy application scenarios. However, unlike the artificial neural network (ANN) which has a mature and unified framework, the SNN models and training methods have not yet been widely unified due to the discontinuous and non-differentiable property of the firing mechanism. Although several algorithms for training spiking neural networks have been proposed in the subsequent development process, some fundamental issues remain unsolved. Inspired by random network design, this work proposes a new architecture for spiking neural networks, RanSNN, where only part of the network weights need training and all the classic training methods can be adopted. Compared with traditional training methods for spiking neural networks, it greatly improves the training efficiency while ensuring the training performance, and also has good versatility and stability as validated by benchmark tests.
- Abstract(参考訳): 第3世代のニューラルネットワークとして知られるスパイクニューラルネットワークは、重要なネットワークパラダイムである。
生物学的合理性に従う情報伝達のモードのため、スパイクニューラルネットワークは強いエネルギー効率を持ち、複雑な高エネルギーアプリケーションシナリオにおいて利点がある。
しかしながら、成熟した統一されたフレームワークを持つ人工ニューラルネットワーク(ANN)とは異なり、SNNモデルとトレーニング方法は、発射機構の不連続性と非微分性のため、まだ広く統一されていない。
スパイクニューラルネットワークを訓練するためのいくつかのアルゴリズムがその後の開発プロセスで提案されているが、いくつかの根本的な問題は未解決のままである。
ランダムなネットワーク設計にインスパイアされたこの研究は、ニューラルネットワークをスパイクするための新しいアーキテクチャであるRanSNNを提案している。
ニューラルネットワークをスパイクする従来のトレーニング手法と比較して、トレーニング性能を確保しながらトレーニング効率を大幅に向上し、ベンチマークテストで検証されたように、優れた汎用性と安定性を持つ。
関連論文リスト
- Peer-to-Peer Learning Dynamics of Wide Neural Networks [10.179711440042123]
本稿では,分散勾配降下法(DGD)アルゴリズムを用いて学習した広範ニューラルネットワークの学習力学を明示的に評価する。
この結果は,最近のニューラルネットワークカーネル(NTK)理論と,分散学習とコンセンサスタスクに関する広範な研究の両面を生かしている。
論文 参考訳(メタデータ) (2024-09-23T17:57:58Z) - NeuralFastLAS: Fast Logic-Based Learning from Raw Data [54.938128496934695]
シンボリック・ルール学習者は解釈可能な解を生成するが、入力を記号的に符号化する必要がある。
ニューロシンボリックアプローチは、ニューラルネットワークを使用して生データを潜在シンボリック概念にマッピングすることで、この問題を克服する。
我々は,ニューラルネットワークを記号学習者と共同でトレーニングする,スケーラブルで高速なエンドツーエンドアプローチであるNeuralFastLASを紹介する。
論文 参考訳(メタデータ) (2023-10-08T12:33:42Z) - Spike-based computation using classical recurrent neural networks [1.9171404264679484]
スパイキングニューラルネットワーク(英: Spiking Neural Network)は、ニューロン間の通信が、スパイクと呼ばれるイベントのみによって構成される人工ニューラルネットワークである。
我々は、よく知られた、訓練が容易なリカレントニューラルネットワークのダイナミクスを変更して、イベントベースにする。
この新ネットワークは,MNISTベンチマークにおいて,他の種類のスパイクネットワークに匹敵する性能が得られることを示す。
論文 参考訳(メタデータ) (2023-06-06T12:19:12Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Stochastic Markov Gradient Descent and Training Low-Bit Neural Networks [77.34726150561087]
本稿では,量子化ニューラルネットワークのトレーニングに適用可能な離散最適化手法であるGradient Markov Descent (SMGD)を紹介する。
アルゴリズム性能の理論的保証と数値的な結果の促進を提供する。
論文 参考訳(メタデータ) (2020-08-25T15:48:15Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。