論文の概要: State-Space Model Inspired Multiple-Input Multiple-Output Spiking Neurons
- arxiv url: http://arxiv.org/abs/2504.02591v1
- Date: Thu, 03 Apr 2025 13:55:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-04 12:55:44.884926
- Title: State-Space Model Inspired Multiple-Input Multiple-Output Spiking Neurons
- Title(参考訳): 複数入力多重出力スパイクニューロンにインスパイアされた状態空間モデル
- Authors: Sanja Karilanova, Subhrakanti Dey, Ayça Özçelikkale,
- Abstract要約: スパイキングニューラルネットワーク(SNN)では、情報処理の主単位は内部状態のニューロンである。
一般マルチインプット・マルチアウトプット(MIMO)スパイキングニューロンモデルを提案する。
内部状態が広いニューロン数が少ないSNNでは,ニューロンの出力チャネル数を増やすことで,大きな性能向上が得られることを示す。
- 参考スコア(独自算出の注目度): 3.2443914909457594
- License:
- Abstract: In spiking neural networks (SNNs), the main unit of information processing is the neuron with an internal state. The internal state generates an output spike based on its component associated with the membrane potential. This spike is then communicated to other neurons in the network. Here, we propose a general multiple-input multiple-output (MIMO) spiking neuron model that goes beyond this traditional single-input single-output (SISO) model in the SNN literature. Our proposed framework is based on interpreting the neurons as state-space models (SSMs) with linear state evolutions and non-linear spiking activation functions. We illustrate the trade-offs among various parameters of the proposed SSM-inspired neuron model, such as the number of hidden neuron states, the number of input and output channels, including single-input multiple-output (SIMO) and multiple-input single-output (MISO) models. We show that for SNNs with a small number of neurons with large internal state spaces, significant performance gains may be obtained by increasing the number of output channels of a neuron. In particular, a network with spiking neurons with multiple-output channels may achieve the same level of accuracy with the baseline with the continuous-valued communications on the same reference network architecture.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)では、情報処理の主単位は内部状態のニューロンである。
内部状態は、膜電位に関連する成分に基づいて出力スパイクを生成する。
このスパイクはネットワーク内の他のニューロンに伝達される。
本稿では、SNN文献における従来のシングルインプット・シングルアウトプット(SISO)モデルを超えて、一般的なマルチインプット・マルチインプット・マルチアウトプット(MIMO)スパイキングニューロンモデルを提案する。
提案手法は,ニューロンを状態空間モデル(SSM)として線形状態進化と非線形スパイキング活性化関数を解釈することに基づく。
提案するSSM誘発ニューロンモデルでは,隠れニューロン状態の数,入出力チャネルの個数,SIMO(Single-input multiple-output)モデル,MISO(Multiple-input single-output)モデルなど,さまざまなパラメータのトレードオフについて述べる。
内部状態が広いニューロン数が少ないSNNでは,ニューロンの出力チャネル数を増やすことで,大きな性能向上が得られることを示す。
特に、複数の出力チャネルを持つスパイクニューロンを持つネットワークは、同じ参照ネットワークアーキテクチャ上で連続的に評価された通信を行うベースラインと同じレベルの精度を達成することができる。
関連論文リスト
- Delay Neural Networks (DeNN) for exploiting temporal information in event-based datasets [49.1574468325115]
遅延ニューラルネットワーク(DeNN)は、前方と後方の両方でスパイクの正確な時間的情報を明示的に使用するように設計されている。
特に時間情報が重要であるデータセットでは、優れたパフォーマンスが得られます。
論文 参考訳(メタデータ) (2025-01-10T14:58:15Z) - Neuromorphic Wireless Split Computing with Multi-Level Spikes [69.73249913506042]
ニューロモルフィックコンピューティングは、スパイキングニューラルネットワーク(SNN)を使用して推論タスクを実行する。
スパイクニューロン間で交換される各スパイクに小さなペイロードを埋め込むことで、エネルギー消費を増大させることなく推論精度を高めることができる。
分割コンピューティング — SNNを2つのデバイスに分割する — は、有望なソリューションだ。
本稿では,マルチレベルSNNを用いたニューロモルフィック無線分割コンピューティングアーキテクチャの総合的研究について述べる。
論文 参考訳(メタデータ) (2024-11-07T14:08:35Z) - A survey on learning models of spiking neural membrane systems and spiking neural networks [0.0]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、特定の脳のような特性を持つ、生物学的にインスパイアされたニューラルネットワークのモデルである。
SNNでは、スパイクトレインとスパイクトレインを通してニューロン間の通信が行われる。
SNPSは形式的オートマトン原理に基づくSNNの分岐と見なすことができる。
論文 参考訳(メタデータ) (2024-03-27T14:26:41Z) - Deep Pulse-Coupled Neural Networks [31.65350290424234]
ニューラルネットワーク(SNN)は、ニューロンを利用して脳の情報処理機構をキャプチャする。
本研究では、複雑な力学、すなわちパルス結合型ニューラルネットワーク(PCNN)を用いた、より生物学的に実証可能なニューラルモデルを活用する。
我々は、SNNでよく使われるLIFニューロンをPCNNニューロンに置き換えることで、ディープパルス結合ニューラルネットワーク(DPCNN)を構築する。
論文 参考訳(メタデータ) (2023-12-24T08:26:00Z) - The Expressive Leaky Memory Neuron: an Efficient and Expressive Phenomenological Neuron Model Can Solve Long-Horizon Tasks [64.08042492426992]
本稿では,脳皮質ニューロンの生物学的モデルであるExpressive Memory(ELM)ニューロンモデルを紹介する。
ELMニューロンは、上記の入力-出力関係を1万以下のトレーニング可能なパラメータと正確に一致させることができる。
本稿では,Long Range Arena(LRA)データセットなど,時間構造を必要とするタスクで評価する。
論文 参考訳(メタデータ) (2023-06-14T13:34:13Z) - Complex Dynamic Neurons Improved Spiking Transformer Network for
Efficient Automatic Speech Recognition [8.998797644039064]
リークインテグレーテッド・アンド・ファイア(LIF)ニューロンを用いたスパイクニューラルネットワーク(SNN)は、音声認識(ASR)タスクで一般的に用いられている。
ここでは、スパイキングトランスから生成された逐次パターンを後処理する4種類の神経力学を紹介する。
その結果,DyTr-SNNは音素誤り率の低下,計算コストの低下,ロバスト性の向上など,非トイ自動音声認識タスクをうまく処理できることがわかった。
論文 参考訳(メタデータ) (2023-02-02T16:20:27Z) - Multi-compartment Neuron and Population Encoding Powered Spiking Neural Network for Deep Distributional Reinforcement Learning [6.0483672878162515]
スパイキングニューラルネットワーク(SNN)では、スパイキングニューロンが基本的な情報処理ユニットとして機能する。
本稿では,SNNに基づく脳の深部分布強化学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-01-18T02:45:38Z) - The Mechanical Neural Network(MNN) -- A physical implementation of a
multilayer perceptron for education and hands-on experimentation [1.1802674324027231]
このモデルは、教育において経験を生かし、学生がネットワークのパラメータが出力に与える影響を体験できるようにするために使用される。
MNNは実値関数とXORを含む論理演算子をモデル化することができる。
論文 参考訳(メタデータ) (2022-07-15T14:05:44Z) - POPPINS : A Population-Based Digital Spiking Neuromorphic Processor with
Integer Quadratic Integrate-and-Fire Neurons [50.591267188664666]
2つの階層構造を持つ180nmプロセス技術において,集団に基づくディジタルスパイキングニューロモルフィックプロセッサを提案する。
提案手法は,生体模倣型ニューロモルフィックシステム,低消費電力,低遅延推論処理アプリケーションの開発を可能にする。
論文 参考訳(メタデータ) (2022-01-19T09:26:34Z) - Flexible Transmitter Network [84.90891046882213]
現在のニューラルネットワークはMPモデルに基づいて構築されており、通常はニューロンを他のニューロンから受信した信号の実際の重み付け集約上での活性化関数の実行として定式化する。
本稿では,フレキシブル・トランスミッタ(FT)モデルを提案する。
本稿では、最も一般的な完全接続型フィードフォワードアーキテクチャ上に構築された、フレキシブルトランスミッタネットワーク(FTNet)について述べる。
論文 参考訳(メタデータ) (2020-04-08T06:55:12Z) - Non-linear Neurons with Human-like Apical Dendrite Activations [81.18416067005538]
XOR論理関数を100%精度で学習し, 標準的なニューロンに後続のアピーカルデンドライト活性化(ADA)が認められた。
コンピュータビジョン,信号処理,自然言語処理の6つのベンチマークデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-02-02T21:09:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。