論文の概要: On the Universal Representation Property of Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2512.16872v1
- Date: Thu, 18 Dec 2025 18:41:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:32.215794
- Title: On the Universal Representation Property of Spiking Neural Networks
- Title(参考訳): スパイキングニューラルネットワークの普遍表現特性について
- Authors: Shayan Hundrieser, Philipp Tuchel, Insung Kong, Johannes Schmidt-Hieber,
- Abstract要約: スパイクニューラルネットワーク(SNN)は、時間とともに離散スパイクを通じて情報を処理します。
本研究では,SNNをスパイクのシーケンス・ツー・シーケンス・プロセッサとして見ることによって,SNNの表現力を分析する。
- 参考スコア(独自算出の注目度): 8.376356474974223
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Inspired by biology, spiking neural networks (SNNs) process information via discrete spikes over time, offering an energy-efficient alternative to the classical computing paradigm and classical artificial neural networks (ANNs). In this work, we analyze the representational power of SNNs by viewing them as sequence-to-sequence processors of spikes, i.e., systems that transform a stream of input spikes into a stream of output spikes. We establish the universal representation property for a natural class of spike train functions. Our results are fully quantitative, constructive, and near-optimal in the number of required weights and neurons. The analysis reveals that SNNs are particularly well-suited to represent functions with few inputs, low temporal complexity, or compositions of such functions. The latter is of particular interest, as it indicates that deep SNNs can efficiently capture composite functions via a modular design. As an application of our results, we discuss spike train classification. Overall, these results contribute to a rigorous foundation for understanding the capabilities and limitations of spike-based neuromorphic systems.
- Abstract(参考訳): 生物学にインスパイアされたスパイクニューラルネットワーク(SNN)は、時間の経過とともに離散的なスパイクを通じて情報を処理し、古典的なコンピューティングパラダイムや古典的な人工知能(ANN)に代わるエネルギー効率の高い代替手段を提供する。
本研究では,入力スパイクのストリームを出力スパイクのストリームに変換するシステムであるスパイクのシーケンス・ツー・シーケンスプロセッサとして,SNNの表現力を解析する。
スパイクトレイン関数の自然なクラスに対する普遍表現性を確立する。
我々の結果は、必要な重量とニューロンの数において、完全に定量化され、構成され、ほぼ最適である。
分析の結果、SNNは入力が少ない関数や時間的複雑さの低い関数、あるいはそのような関数の構成を表現するのに特に適していることが明らかとなった。
後者は、深いSNNがモジュラー設計により効率的に合成関数をキャプチャできることを示しているため、特に興味深い。
本結果の適用例として,スパイク列車の分類について考察する。
全体として、これらの結果はスパイクベースのニューロモルフィックシステムの能力と限界を理解するための厳格な基礎に寄与する。
関連論文リスト
- Causal pieces: analysing and improving spiking neural networks piece by piece [2.255961793913651]
我々は「線形ピース」の概念から導かれたスパイクニューラルネットワーク(SNN)の新たな概念を紹介した。
SNNの入力領域は、出力スパイク時間が局所的にリプシッツ連続である別の因果領域に分解されることを示す。
と呼ぶ領域の数は、SNNの近似能力の尺度である。
論文 参考訳(メタデータ) (2025-04-18T18:07:33Z) - Temporal Spiking Neural Networks with Synaptic Delay for Graph Reasoning [91.29876772547348]
スパイキングニューラルネットワーク(SNN)は、生物学的にインスパイアされたニューラルネットワークモデルとして研究されている。
本稿では,SNNがシナプス遅延と時間符号化とを併用すると,グラフ推論の実行(知識)に長けていることを明らかにする。
論文 参考訳(メタデータ) (2024-05-27T05:53:30Z) - Advancing Spiking Neural Networks for Sequential Modeling with Central Pattern Generators [47.371024581669516]
スパイキングニューラルネットワーク(SNN)は、人工ニューラルネットワークを開発するための有望なアプローチである。
SNNをテキスト分類や時系列予測といったシーケンシャルなタスクに適用することは、効果的でハードウェアフレンドリーなスパイク形式の位置符号化戦略を作成するという課題によって妨げられている。
CPG-PEと呼ばれる新しいSNNのためのPE手法を提案する。我々は、一般的に使われているsinusoidal PEが、数学的に特定のCPGの膜電位ダイナミクスの特定の解であることを実証する。
論文 参考訳(メタデータ) (2024-05-23T09:39:12Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Exploiting High Performance Spiking Neural Networks with Efficient
Spiking Patterns [4.8416725611508244]
スパイキングニューラルネットワーク(SNN)は、離散スパイクシーケンスを使用して情報を伝達し、脳の情報伝達を著しく模倣する。
本稿では、動的バーストパターンを導入し、短時間の性能と動的時間的性能のトレードオフを可能にするLeaky Integrate and Fire or Burst(LIFB)ニューロンを設計する。
論文 参考訳(メタデータ) (2023-01-29T04:22:07Z) - The Spectral Bias of Polynomial Neural Networks [63.27903166253743]
PNN(Polynomial Neural Network)は、高頻度情報を重要視する画像生成と顔認識に特に有効であることが示されている。
これまでの研究では、ニューラルネットワークが低周波関数に対して$textitspectral bias$を示しており、トレーニング中に低周波成分のより高速な学習をもたらすことが示されている。
このような研究に触発されて、我々はPNNのTangent Kernel(NTK)のスペクトル分析を行う。
我々は、最近提案されたPNNのパラメトリゼーションである$Pi$-Netファミリがスピードアップすることを発見した。
論文 参考訳(メタデータ) (2022-02-27T23:12:43Z) - Exploiting Spiking Dynamics with Spatial-temporal Feature Normalization
in Graph Learning [9.88508686848173]
内在的なダイナミクスを持つ生物学的スパイキングニューロンは、脳の強力な表現力と学習能力を持つ。
ユークリッド空間タスクを処理するためのスパイクニューラルネットワーク(SNN)の最近の進歩にもかかわらず、非ユークリッド空間データの処理においてSNNを活用することは依然として困難である。
本稿では,グラフ学習のためのSNNの直接学習を可能にする,一般的なスパイクに基づくモデリングフレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-30T11:20:16Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z) - Exploiting Neuron and Synapse Filter Dynamics in Spatial Temporal
Learning of Deep Spiking Neural Network [7.503685643036081]
空間的時間特性を持つ生物解析可能なSNNモデルは複雑な力学系である。
ニューロン非線形性を持つ無限インパルス応答(IIR)フィルタのネットワークとしてSNNを定式化する。
本稿では,最適シナプスフィルタカーネルと重みを求めることにより,時空間パターンを学習できる学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-19T01:27:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。