論文の概要: Equivalence of approximation by networks of single- and multi-spike neurons
- arxiv url: http://arxiv.org/abs/2603.13478v1
- Date: Fri, 13 Mar 2026 18:00:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.236842
- Title: Equivalence of approximation by networks of single- and multi-spike neurons
- Title(参考訳): シングルスパイクニューロンとマルチスパイクニューロンのネットワークによる近似の等価性
- Authors: Dominik Dold, Philipp Christian Petersen,
- Abstract要約: スパイクニューラルネットワークでは、各ニューロンが最大1回スパイクするには十分か?
近年の研究では、スパイクニューラルネットワークの近似バウンダリが導出され、ターゲット関数の適合性を定量化している。
ここでは、大きな種類のスパイクニューロンモデルに対して、その逆が成り立つことを示す。
- 参考スコア(独自算出の注目度): 0.8250374560598496
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In a spiking neural network, is it enough for each neuron to spike at most once? In recent work, approximation bounds for spiking neural networks have been derived, quantifying how well they can fit target functions. However, these results are only valid for neurons that spike at most once, which is commonly thought to be a strong limitation. Here, we show that the opposite is true for a large class of spiking neuron models, including the commonly used leaky integrate-and-fire model with subtractive reset: for every approximation bound that is valid for a set of multi-spike neural networks, there is an equivalent set of single-spike neural networks with only linearly more neurons (in the maximum number of spikes) for which the bound holds. The same is true for the reverse direction too, showing that regarding their approximation capabilities in general machine learning tasks, single-spike and multi-spike neural networks are equivalent. Consequently, many approximation results in the literature for single-spike neural networks also hold for the multi-spike case.
- Abstract(参考訳): スパイクニューラルネットワークでは、各ニューロンが最大1回スパイクするには十分か?
近年の研究では、スパイクニューラルネットワークの近似バウンダリが導出され、ターゲット関数の適合性を定量化している。
しかしながら、これらの結果は最大で1回スパイクするニューロンに対してのみ有効であり、これは一般的に強い制限であると考えられている。
ここでは,複数スパイクニューラルネットワークの集合に有効である全ての近似境界に対して,境界が保持するニューロン(スパイクの最大数)を線形に増やす単一スパイクニューラルネットワークの等価なセットが存在することを示す。
逆方向も同じで、一般的な機械学習タスクにおける近似能力について、シングルスパイクとマルチスパイクニューラルネットワークは同等であることを示している。
その結果、単一スパイクニューラルネットワークの文献における多くの近似結果が、マルチスパイクの場合にも当てはまる。
関連論文リスト
- Dense Neural Networks are not Universal Approximators [53.27010448621372]
ニューラルネットワークは任意の連続関数の普遍性を持たないことを示す。
ReLUニューラルネットワークは、重みと入出力次元の自然な制約を受ける。
論文 参考訳(メタデータ) (2026-02-07T16:52:38Z) - Hybrid deep additive neural networks [0.0]
加算回帰という概念を取り入れた新しいディープニューラルネットワークを導入する。
我々のニューラルネットワークは、Kolmogorov-Arnoldネットワークとアーキテクチャ上の類似点を共有しているが、よりシンプルで柔軟なアクティベーションと基底関数に基づいている。
我々はそれらの普遍近似特性を導出し、シミュレーション研究と実データ応用を通してその効果を実証する。
論文 参考訳(メタデータ) (2024-11-14T04:26:47Z) - Residual Random Neural Networks [0.0]
ランダムな重みを持つ単層フィードフォワードニューラルネットワークは、ニューラルネットワークの文献の中で繰り返されるモチーフである。
隠れたニューロンの数がデータサンプルの次元と等しくない場合でも,優れた分類結果が得られることを示す。
論文 参考訳(メタデータ) (2024-10-25T22:00:11Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - On the Neural Tangent Kernel Analysis of Randomly Pruned Neural Networks [91.3755431537592]
ニューラルネットワークのニューラルカーネル(NTK)に重みのランダムプルーニングが及ぼす影響について検討する。
特に、この研究は、完全に接続されたニューラルネットワークとそのランダムに切断されたバージョン間のNTKの等価性を確立する。
論文 参考訳(メタデータ) (2022-03-27T15:22:19Z) - Redundant representations help generalization in wide neural networks [71.38860635025907]
様々な最先端の畳み込みニューラルネットワークの最後に隠された層表現について検討する。
最後に隠された表現が十分に広ければ、そのニューロンは同一の情報を持つグループに分裂し、統計的に独立したノイズによってのみ異なる傾向にある。
論文 参考訳(メタデータ) (2021-06-07T10:18:54Z) - And/or trade-off in artificial neurons: impact on adversarial robustness [91.3755431537592]
ネットワークに十分な数のOR様ニューロンが存在すると、分類の脆さと敵の攻撃に対する脆弱性が増加する。
そこで我々は,AND様ニューロンを定義し,ネットワーク内での割合を増大させる対策を提案する。
MNISTデータセットによる実験結果から,本手法はさらなる探索の方向として有望であることが示唆された。
論文 参考訳(メタデータ) (2021-02-15T08:19:05Z) - Logarithmic Pruning is All You Need [30.330326149079326]
Lottery Ticket仮説(Lottery Ticket hypothesis): 大規模なニューラルネットワークには、独立したトレーニングを受けた場合、大きなネットワークに匹敵するパフォーマンスを実現するサブネットワークが含まれている。
しかし、後者の結果は多くの強い仮定に依存し、ターゲット関数と比較して大きなネットワークのサイズに影響を及ぼす。
論文 参考訳(メタデータ) (2020-06-22T11:42:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。