論文の概要: SIT: A Bionic and Non-Linear Neuron for Spiking Neural Network
- arxiv url: http://arxiv.org/abs/2203.16117v2
- Date: Fri, 1 Apr 2022 09:09:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-04 11:28:18.106554
- Title: SIT: A Bionic and Non-Linear Neuron for Spiking Neural Network
- Title(参考訳): SIT:スパイクニューラルネットワークのためのバイオン・非線形ニューロン
- Authors: Cheng Jin, Rui-Jie Zhu, Xiao Wu, Liang-Jian Deng
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、時間的情報処理能力と消費電力の低さから、研究者の関心を喚起している。
現在の最先端の手法は、ニューロンが単純な Leaky-Integrate-and-Fire (LIF) モデルに基づいて構築されているため、生物学的な可視性と性能を制限している。
高レベルの動的複雑さのため、現代のニューロンモデルがSNNの実践で実装されることはめったにない。
- 参考スコア(独自算出の注目度): 12.237928453571636
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Spiking Neural Networks (SNNs) have piqued researchers' interest because of
their capacity to process temporal information and low power consumption.
However, current state-of-the-art methods limited their biological plausibility
and performance because their neurons are generally built on the simple
Leaky-Integrate-and-Fire (LIF) model. Due to the high level of dynamic
complexity, modern neuron models have seldom been implemented in SNN practice.
In this study, we adopt the Phase Plane Analysis (PPA) technique, a technique
often utilized in neurodynamics field, to integrate a recent neuron model,
namely, the Izhikevich neuron. Based on the findings in the advancement of
neuroscience, the Izhikevich neuron model can be biologically plausible while
maintaining comparable computational cost with LIF neurons. By utilizing the
adopted PPA, we have accomplished putting neurons built with the modified
Izhikevich model into SNN practice, dubbed as the Standardized Izhikevich Tonic
(SIT) neuron. For performance, we evaluate the suggested technique for image
classification tasks in self-built LIF-and-SIT-consisted SNNs, named Hybrid
Neural Network (HNN) on static MNIST, Fashion-MNIST, CIFAR-10 datasets and
neuromorphic N-MNIST, CIFAR10-DVS, and DVS128 Gesture datasets. The
experimental results indicate that the suggested method achieves comparable
accuracy while exhibiting more biologically realistic behaviors on nearly all
test datasets, demonstrating the efficiency of this novel strategy in bridging
the gap between neurodynamics and SNN practice.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、時間的情報処理能力と消費電力の低さから、研究者の関心を喚起している。
しかし、現在の最先端の手法では、ニューロンは単純な Leaky-Integrate-and-Fire (LIF) モデルに基づいて構築されているため、生物学的妥当性と性能が制限されている。
高レベルの動的複雑さのため、現代のニューロンモデルはSNNの実践ではほとんど実装されていない。
本研究では,神経力学の分野でよく用いられる位相平面解析(phase plane analysis, ppa)技術を用いて,最新のニューロンモデル,すなわちizhikevichニューロンを統合する。
神経科学の発展の成果に基づいて、Izhikevichニューロンモデルは、LIFニューロンと同等の計算コストを維持しながら生物学的に妥当である。
導入したPPAを利用して、修正Izhikevichモデルで構築したニューロンをSNNの練習に投入し、SIT(Standardized Izhikevich Tonic)ニューロンと呼ばれる。
静的MNIST, Fashion-MNIST, CIFAR-10データセットおよびニューロモルフィックN-MNIST, CIFAR10-DVS, DVS128ジェスチャデータセット上で, LIF- and-SIT-consisted SNNを自作したHybrid Neural Network (HNN) における画像分類タスクの評価を行った。
実験の結果,提案手法は,ほぼすべての試験データセットに対して,より生物学的に現実的な挙動を示しながら,同等の精度を達成できることが示唆された。
関連論文リスト
- Rethinking Spiking Neural Networks as State Space Models [1.9775291915550175]
スパイキングニューラルネットワーク(SNN)は、従来のニューラルネットワークに代わる生物学的に妥当な代替品として提案されている。
状態空間モデルに基づく新しいスパイキング神経モデルについて述べる。
我々のモデルは、様々な長距離依存タスクにまたがるSNNモデル間の最先端性能を実現する。
論文 参考訳(メタデータ) (2024-06-05T04:23:11Z) - Deep Pulse-Coupled Neural Networks [31.65350290424234]
ニューラルネットワーク(SNN)は、ニューロンを利用して脳の情報処理機構をキャプチャする。
本研究では、複雑な力学、すなわちパルス結合型ニューラルネットワーク(PCNN)を用いた、より生物学的に実証可能なニューラルモデルを活用する。
我々は、SNNでよく使われるLIFニューロンをPCNNニューロンに置き換えることで、ディープパルス結合ニューラルネットワーク(DPCNN)を構築する。
論文 参考訳(メタデータ) (2023-12-24T08:26:00Z) - The Expressive Leaky Memory Neuron: an Efficient and Expressive Phenomenological Neuron Model Can Solve Long-Horizon Tasks [64.08042492426992]
本稿では,脳皮質ニューロンの生物学的モデルであるExpressive Memory(ELM)ニューロンモデルを紹介する。
ELMニューロンは、上記の入力-出力関係を1万以下のトレーニング可能なパラメータと正確に一致させることができる。
本稿では,Long Range Arena(LRA)データセットなど,時間構造を必要とするタスクで評価する。
論文 参考訳(メタデータ) (2023-06-14T13:34:13Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Multi-scale Evolutionary Neural Architecture Search for Deep Spiking
Neural Networks [7.271032282434803]
スパイキングニューラルネットワーク(SNN)のためのマルチスケール進化型ニューラルネットワーク探索(MSE-NAS)を提案する。
MSE-NASは脳にインスパイアされた間接的評価機能であるRepresentational Dissimilarity Matrices(RDMs)を介して、個々のニューロンの操作、複数の回路モチーフの自己組織化の統合、およびグローバルなモチーフ間の接続を進化させる
提案アルゴリズムは,静的データセットとニューロモルフィックデータセットのシミュレーションステップを短縮して,最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2023-04-21T05:36:37Z) - A Synapse-Threshold Synergistic Learning Approach for Spiking Neural
Networks [1.8556712517882232]
スパイキングニューラルネットワーク(SNN)は、さまざまなインテリジェントなシナリオにおいて優れた機能を示している。
本研究では,SNNにおけるシナプス重みとスパイク閾値を同時に学習する新しいシナジー学習手法を開発する。
論文 参考訳(メタデータ) (2022-06-10T06:41:36Z) - STNDT: Modeling Neural Population Activity with a Spatiotemporal
Transformer [19.329190789275565]
我々は、個々のニューロンの応答を明示的にモデル化するNDTベースのアーキテクチャであるSpatioTemporal Neural Data Transformer (STNDT)を紹介する。
本モデルは,4つのニューラルデータセット間での神経活動の推定において,アンサンブルレベルでの最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2022-06-09T18:54:23Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z) - Mapping and Validating a Point Neuron Model on Intel's Neuromorphic
Hardware Loihi [77.34726150561087]
インテルの第5世代ニューロモルフィックチップ「Loihi」の可能性について検討する。
Loihiは、脳内のニューロンをエミュレートするスパイキングニューラルネットワーク(SNN)という新しいアイデアに基づいている。
Loihiは従来のシミュレーションを非常に効率的に再現し、ネットワークが大きくなるにつれて、時間とエネルギーの両方のパフォーマンスにおいて顕著にスケールする。
論文 参考訳(メタデータ) (2021-09-22T16:52:51Z) - Dynamic Neural Diversification: Path to Computationally Sustainable
Neural Networks [68.8204255655161]
訓練可能なパラメータが制限された小さなニューラルネットワークは、多くの単純なタスクに対してリソース効率の高い候補となる。
学習過程において隠れた層内のニューロンの多様性を探索する。
ニューロンの多様性がモデルの予測にどのように影響するかを分析する。
論文 参考訳(メタデータ) (2021-09-20T15:12:16Z) - Recurrent Neural Network Learning of Performance and Intrinsic
Population Dynamics from Sparse Neural Data [77.92736596690297]
本稿では,RNNの入出力動作だけでなく,内部ネットワークのダイナミクスも学習できる新しいトレーニング戦略を提案する。
提案手法は、RNNを訓練し、生理学的にインスパイアされた神経モデルの内部ダイナミクスと出力信号を同時に再現する。
注目すべきは、トレーニングアルゴリズムがニューロンの小さなサブセットの活性に依存する場合であっても、内部動力学の再現が成功することである。
論文 参考訳(メタデータ) (2020-05-05T14:16:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。