論文の概要: Approximating nonlinear functions with latent boundaries in low-rank
excitatory-inhibitory spiking networks
- arxiv url: http://arxiv.org/abs/2307.09334v2
- Date: Mon, 31 Jul 2023 15:34:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-01 20:15:07.994716
- Title: Approximating nonlinear functions with latent boundaries in low-rank
excitatory-inhibitory spiking networks
- Title(参考訳): 低位励振抑制スパイクネットワークにおける潜在境界を持つ非線形関数の近似
- Authors: William F. Podlaski, Christian K. Machens
- Abstract要約: スパイクに基づく興奮抑制スパイクネットワークのための新しいフレームワークを考案した。
本研究は,生体スパイクに基づく計算の力学的理解の出発点となるスパイクネットワークの新しい視点を提案する。
- 参考スコア(独自算出の注目度): 11.345796608258434
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep feedforward and recurrent rate-based neural networks have become
successful functional models of the brain, but they neglect obvious biological
details such as spikes and Dale's law. Here we argue that these details are
crucial in order to understand how real neural circuits operate. Towards this
aim, we put forth a new framework for spike-based computation in low-rank
excitatory-inhibitory spiking networks. By considering populations with rank-1
connectivity, we cast each neuron's spiking threshold as a boundary in a
low-dimensional input-output space. We then show how the combined thresholds of
a population of inhibitory neurons form a stable boundary in this space, and
those of a population of excitatory neurons form an unstable boundary.
Combining the two boundaries results in a rank-2 excitatory-inhibitory (EI)
network with inhibition-stabilized dynamics at the intersection of the two
boundaries. The computation of the resulting networks can be understood as the
difference of two convex functions, and is thereby capable of approximating
arbitrary non-linear input-output mappings. We demonstrate several properties
of these networks, including noise suppression and amplification, irregular
activity and synaptic balance, as well as how they relate to rate network
dynamics in the limit that the boundary becomes soft. Finally, while our work
focuses on small networks (5-50 neurons), we discuss potential avenues for
scaling up to much larger networks. Overall, our work proposes a new
perspective on spiking networks that may serve as a starting point for a
mechanistic understanding of biological spike-based computation.
- Abstract(参考訳): ディープフィードフォワードとリカレントレートに基づくニューラルネットワークは脳の機能モデルとして成功しているが、スパイクやデールの法則のような明確な生物学的詳細は無視されている。
ここでは、実際の神経回路の動作を理解するために、これらの詳細が重要であると論じる。
この目的に向けて, スパイクベース計算のための新しいフレームワークを低ランク励振抑制スパイクネットワークに導入した。
ランク1接続性を持つ個体群を考慮し、低次元入力出力空間における各ニューロンのスパイク閾値を境界とした。
次に, この空間において抑制ニューロン集団の閾値が安定な境界を形成し, 興奮ニューロン集団の閾値が不安定な境界を形成することを示す。
2つの境界を組み合わせれば、2つの境界の交点における抑制安定化力学を持つランク2励起阻止(EI)ネットワークが得られる。
得られたネットワークの計算は、2つの凸関数の差分として理解することができ、任意の非線形入力出力マッピングを近似することができる。
ノイズ抑制と増幅,不規則な活動とシナプスバランス,境界がソフトになる限界におけるレートネットワークのダイナミクスとの関連など,これらのネットワークのいくつかの特性を実証する。
最後に、我々の研究は、小さなネットワーク(5-50ニューロン)に焦点を当てていますが、もっと大きなネットワークにスケールアップするための潜在的な方法について議論します。
全体として,生体スパイクに基づく計算を機械的に理解するための出発点となるスパイクネットワークに対する新たな視点を提案する。
関連論文リスト
- Biologically-Informed Excitatory and Inhibitory Balance for Robust Spiking Neural Network Training [0.40498500266986387]
脳の生物学的制約からインスピレーションを得るニューラルネットワークは、人工知能のエネルギー効率の良いパラダイムを約束する。
本研究では,スパイキングネットワークを訓練する能力を決定する,低初期発火率や多様な抑制スパイキングパターンなど,いくつかの重要な要因を同定する。
その結果、生物学的に現実的な80:20の興奮性:抑制的バランスを持つネットワークは、低活動レベルおよび騒音環境下で確実にトレーニングできることがわかった。
論文 参考訳(メタデータ) (2024-04-24T03:29:45Z) - Quantum-Inspired Analysis of Neural Network Vulnerabilities: The Role of
Conjugate Variables in System Attacks [54.565579874913816]
ニューラルネットワークは、敵の攻撃として現れる小さな非ランダムな摂動に固有の脆弱性を示す。
この機構と量子物理学の不確実性原理の間に数学的に一致し、予想外の学際性に光を当てる。
論文 参考訳(メタデータ) (2024-02-16T02:11:27Z) - Expressivity of Spiking Neural Networks [15.181458163440634]
本研究では,ニューロンの発射時間内に情報を符号化したスパイクニューラルネットワークの能力について検討する。
ReLUネットワークとは対照的に、スパイクニューラルネットワークは連続関数と不連続関数の両方を実現することができる。
論文 参考訳(メタデータ) (2023-08-16T08:45:53Z) - Addressing caveats of neural persistence with deep graph persistence [54.424983583720675]
神経の持続性に影響を与える主な要因は,ネットワークの重みのばらつきと大きな重みの空間集中である。
単一層ではなく,ニューラルネットワーク全体へのニューラルネットワークの持続性に基づくフィルタリングの拡張を提案する。
これにより、ネットワーク内の永続的なパスを暗黙的に取り込み、分散に関連する問題を緩和するディープグラフの永続性測定が得られます。
論文 参考訳(メタデータ) (2023-07-20T13:34:11Z) - Gradient Descent in Neural Networks as Sequential Learning in RKBS [63.011641517977644]
初期重みの有限近傍にニューラルネットワークの正確な電力系列表現を構築する。
幅にかかわらず、勾配降下によって生成されたトレーニングシーケンスは、正規化された逐次学習によって正確に複製可能であることを証明した。
論文 参考訳(メタデータ) (2023-02-01T03:18:07Z) - Exploring the Approximation Capabilities of Multiplicative Neural
Networks for Smooth Functions [9.936974568429173]
対象関数のクラスは、一般化帯域制限関数とソボレフ型球である。
以上の結果から、乗法ニューラルネットワークは、これらの関数をはるかに少ない層とニューロンで近似できることを示した。
これらの結果は、乗法ゲートが標準フィードフォワード層より優れ、ニューラルネットワーク設計を改善する可能性があることを示唆している。
論文 参考訳(メタデータ) (2023-01-11T17:57:33Z) - Zonotope Domains for Lagrangian Neural Network Verification [102.13346781220383]
我々は、ディープニューラルネットワークを多くの2層ニューラルネットワークの検証に分解する。
我々の手法は線形プログラミングとラグランジアンに基づく検証技術の両方により改善された境界を与える。
論文 参考訳(メタデータ) (2022-10-14T19:31:39Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Linear approximability of two-layer neural networks: A comprehensive
analysis based on spectral decay [4.042159113348107]
まず、単一ニューロンの場合について考察し、コルモゴロフ幅で定量化される線形近似性は、共役核の固有値崩壊によって制御されることを示す。
また,2層ニューラルネットワークについても同様の結果が得られた。
論文 参考訳(メタデータ) (2021-08-10T23:30:29Z) - Rich dynamics caused by known biological brain network features
resulting in stateful networks [0.0]
ニューロン/ネットワークの内部状態は、情報がどのようにネットワーク内で表現されるかを定義する要素となる。
本研究では,ネットワーク状態のダイナミクスを豊かにするニューロンの固有の内在的パラメータが与える影響について検討した。
このような効果は密結合ネットワークよりも疎結合ネットワークにおいて深いことが判明した。
論文 参考訳(メタデータ) (2021-06-03T08:32:43Z) - And/or trade-off in artificial neurons: impact on adversarial robustness [91.3755431537592]
ネットワークに十分な数のOR様ニューロンが存在すると、分類の脆さと敵の攻撃に対する脆弱性が増加する。
そこで我々は,AND様ニューロンを定義し,ネットワーク内での割合を増大させる対策を提案する。
MNISTデータセットによる実験結果から,本手法はさらなる探索の方向として有望であることが示唆された。
論文 参考訳(メタデータ) (2021-02-15T08:19:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。