論文の概要: Random Spiking Neural Networks are Stable and Spectrally Simple
- arxiv url: http://arxiv.org/abs/2511.00904v1
- Date: Sun, 02 Nov 2025 11:55:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.987902
- Title: Random Spiking Neural Networks are Stable and Spectrally Simple
- Title(参考訳): ランダムスパイクニューラルネットワークは安定してスペクトル的にシンプル
- Authors: Ernesto Araya, Massimiliano Datres, Gitta Kutyniok,
- Abstract要約: スパイキングニューラルネットワーク(SNN)はエネルギー効率の計算において有望なパラダイムである。
本研究では、Boolean関数解析のレンズを用いて、離散時間統合ファイア(LIF)SNNについて検討する。
- 参考スコア(独自算出の注目度): 16.850808644949144
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking neural networks (SNNs) are a promising paradigm for energy-efficient computation, yet their theoretical foundations-especially regarding stability and robustness-remain limited compared to artificial neural networks. In this work, we study discrete-time leaky integrate-and-fire (LIF) SNNs through the lens of Boolean function analysis. We focus on noise sensitivity and stability in classification tasks, quantifying how input perturbations affect outputs. Our main result shows that wide LIF-SNN classifiers are stable on average, a property explained by the concentration of their Fourier spectrum on low-frequency components. Motivated by this, we introduce the notion of spectral simplicity, which formalizes simplicity in terms of Fourier spectrum concentration and connects our analysis to the simplicity bias observed in deep networks. Within this framework, we show that random LIF-SNNs are biased toward simple functions. Experiments on trained networks confirm that these stability properties persist in practice. Together, these results provide new insights into the stability and robustness properties of SNNs.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、エネルギー効率の計算において有望なパラダイムであるが、その理論的基盤は、特に、人工ニューラルネットワークと比較して安定性と堅牢性に制限されている。
本研究では, Boolean関数解析のレンズを用いて, 離散時間リーク型統合・ファイア(LIF) SNNについて検討する。
我々は,入力摂動が出力に与える影響を定量化するために,分類作業における雑音感度と安定性に着目した。
本研究の主目的は,低周波成分に対するフーリエスペクトルの濃度によって説明され,LIF-SNN分類器の平均値が安定であることである。
このことから,フーリエスペクトル濃度の観点で簡易性を定式化し,より深いネットワークで観測される単純さバイアスと解析を結びつけるスペクトル単純さの概念が導入された。
このフレームワーク内では、ランダムなLIF-SNNが単純な関数に偏りがあることが示される。
訓練されたネットワークの実験では、これらの安定性特性が実際に持続していることが確認されている。
これらの結果はSNNの安定性と堅牢性に関する新たな洞察を与える。
関連論文リスト
- Dynamical stability for dense patterns in discrete attractor neural networks [6.159133786557903]
次級ニューラルネットワークと雑音の存在下での離散的固定点の局所安定性の理論を導出する。
本分析では,閾値線形アクティベーションとスパース様パターンの計算的利点を強調した。
論文 参考訳(メタデータ) (2025-07-14T15:23:24Z) - Time to Spike? Understanding the Representational Power of Spiking Neural Networks in Discrete Time [15.846913160026341]
スパイキングニューラルネットワーク(SNN)は、従来の人工ニューラルネットワーク(ANN)によって引き起こされるエネルギー問題に対する潜在的な解決策である
本研究では,漏洩型統合火災(LIF)ニューロンに基づくSNNの離散時間モデルについて検討した。
論文 参考訳(メタデータ) (2025-05-23T15:28:00Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - Momentum Diminishes the Effect of Spectral Bias in Physics-Informed
Neural Networks [72.09574528342732]
物理インフォームドニューラルネットワーク(PINN)アルゴリズムは、偏微分方程式(PDE)を含む幅広い問題を解く上で有望な結果を示している。
彼らはしばしば、スペクトルバイアスと呼ばれる現象のために、ターゲット関数が高周波の特徴を含むとき、望ましい解に収束しない。
本研究は, 運動量による勾配降下下で進化するPINNのトレーニングダイナミクスを, NTK(Neural Tangent kernel)を用いて研究するものである。
論文 参考訳(メタデータ) (2022-06-29T19:03:10Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - The Spectral Bias of Polynomial Neural Networks [63.27903166253743]
PNN(Polynomial Neural Network)は、高頻度情報を重要視する画像生成と顔認識に特に有効であることが示されている。
これまでの研究では、ニューラルネットワークが低周波関数に対して$textitspectral bias$を示しており、トレーニング中に低周波成分のより高速な学習をもたらすことが示されている。
このような研究に触発されて、我々はPNNのTangent Kernel(NTK)のスペクトル分析を行う。
我々は、最近提案されたPNNのパラメトリゼーションである$Pi$-Netファミリがスピードアップすることを発見した。
論文 参考訳(メタデータ) (2022-02-27T23:12:43Z) - Stability of Neural Networks on Manifolds to Relative Perturbations [118.84154142918214]
グラフニューラルネットワーク(GNN)は多くの実践シナリオにおいて素晴らしいパフォーマンスを示している。
GNNは大規模グラフ上でうまくスケールすることができるが、これは既存の安定性がノード数とともに増加するという事実に矛盾する。
論文 参考訳(メタデータ) (2021-10-10T04:37:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。