論文の概要: Impact of Neuron Models on Spiking Neural Networks performance. A Complexity Based Classification Approach
- arxiv url: http://arxiv.org/abs/2509.06970v1
- Date: Sun, 24 Aug 2025 19:46:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-14 20:41:04.926476
- Title: Impact of Neuron Models on Spiking Neural Networks performance. A Complexity Based Classification Approach
- Title(参考訳): ニューラルネットワークのスパイク性能に及ぼすニューロンモデルの影響 -複雑度に基づく分類アプローチ-
- Authors: Zofia Rudnicka, Janusz Szczepanski, Agnieszka Pregowska,
- Abstract要約: 本研究では,ニューロンモデルの選択と学習規則がスパイキングニューラルネットワーク(SNN)の分類性能に与える影響について検討する。
我々は、スパイクタイピング依存的可塑性(STDP)、テンポトロン、報酬変調更新など、複数の学習ルールで生物学的にインスパイアされたニューロンモデルを比較した。
この研究の新たな要素は、複雑性に基づく決定機構を評価パイプラインに統合することである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study explores how the selection of neuron models and learning rules impacts the classification performance of Spiking Neural Networks (SNNs), with a focus on applications in bio-signal processing. We compare biologically inspired neuron models, including Leaky Integrate-and-Fire (LIF), metaneurons, and probabilistic Levy-Baxter (LB) neurons, across multiple learning rules, including spike-timing-dependent plasticity (STDP), tempotron, and reward-modulated updates. A novel element of this work is the integration of a complexity-based decision mechanism into the evaluation pipeline. Using Lempel-Ziv Complexity (LZC), a measure related to entropy rate, we quantify the structural regularity of spike trains and assess classification outcomes in a consistent and interpretable manner across different SNN configurations. To investigate neural dynamics and assess algorithm performance, we employed synthetic datasets with varying temporal dependencies and stochasticity levels. These included Markov and Poisson processes, well-established models to simulate neuronal spike trains and capture the stochastic firing behavior of biological neurons.Validation of synthetic Poisson and Markov-modeled data reveals clear performance trends: classification accuracy depends on the interaction between neuron model, network size, and learning rule, with the LZC-based evaluation highlighting configurations that remain robust to weak or noisy signals. This work delivers a systematic analysis of how neuron model selection interacts with network parameters and learning strategies, supported by a novel complexity-based evaluation approach that offers a consistent benchmark for SNN performance.
- Abstract(参考訳): 本研究では,神経モデルの選択と学習規則がスパイキングニューラルネットワーク(SNN)の分類性能に与える影響について検討し,生体信号処理への応用に焦点を当てた。
Leaky Integrate-and-Fire(LIF)、メタニューロン、確率論的Levi-Baxter(LB)ニューロンなど、生物学的にインスパイアされたニューロンモデルを比較し、スパイクタイピング依存性の可塑性(STDP)、テンポトロン、報酬変調更新を含む複数の学習規則を比較した。
この研究の新たな要素は、複雑性に基づく決定機構を評価パイプラインに統合することである。
エントロピー速度に関連する指標であるLempel-Ziv Complexity (LZC)を用いて,スパイク列車の構造的規則性を定量化し,異なるSNN構成で一貫した解釈可能な方法で分類結果を評価する。
ニューラルネットワークを解析し,アルゴリズムの性能を評価するために,時間的依存度と確率性レベルの異なる合成データセットを用いた。
例えば、マルコフとポアソンのプロセス、ニューロンスパイクをシミュレートし、生物学的ニューロンの確率的発火挙動を捉えるための確立されたモデル、そして合成ポアソンとマルコフのモデルによるデータのバリデーションは、明らかにパフォーマンスの傾向を明らかにしている。
この研究は、神経モデル選択がネットワークパラメータや学習戦略とどのように相互作用するかを体系的に分析する。
関連論文リスト
- Learning Internal Biological Neuron Parameters and Complexity-Based Encoding for Improved Spiking Neural Networks Performance [0.0]
本研究では、従来のパーセプトロンモデルを生物学的に誘発される確率論的メタニューロンモデルに置き換えることで、新しいアプローチを導入する。
第2の鍵となる貢献として、SNNとLe-Ziv可塑性(LZC)を一意に統合する、生物学的にインスパイアされた新しい分類フレームワークを提案する。
本稿では,バックプロパゲーション,スパイク刺激型アスペクト依存型可塑性(STDP),テンポトロン学習規則などの学習アルゴリズムを検討する。
論文 参考訳(メタデータ) (2025-08-08T09:14:49Z) - Langevin Flows for Modeling Neural Latent Dynamics [81.81271685018284]
逐次変分自動エンコーダであるLangevinFlowを導入し、潜伏変数の時間的進化をアンダーダム化したLangevin方程式で制御する。
われわれのアプローチは、慣性、減衰、学習されたポテンシャル関数、力などの物理的事前を組み込んで、ニューラルネットワークにおける自律的および非自律的プロセスの両方を表現する。
本手法は,ロレンツ誘引器によって生成される合成神経集団に対する最先端のベースラインより優れる。
論文 参考訳(メタデータ) (2025-07-15T17:57:48Z) - Neural Models of Task Adaptation: A Tutorial on Spiking Networks for Executive Control [0.0]
このチュートリアルでは、タスクスイッチングのダイナミクスをシミュレートするスパイキングニューラルネットワーク(SNN)を構築するためのステップバイステップのアプローチを示す。
このモデルには、横方向の抑制、適応的なシナプス重み、生理的関連範囲における正確なパラメータ化など、生物学的に現実的な特徴が組み込まれている。
このチュートリアルに従うことで、認知過程や神経適応を研究するための生物学的にインスパイアされたSNNモデルを開発、拡張することができる。
論文 参考訳(メタデータ) (2025-03-05T00:44:34Z) - Advancing Spatio-Temporal Processing in Spiking Neural Networks through Adaptation [6.233189707488025]
ニューロモルフィックハードウェア上のニューラルネットワークは、非喫煙者よりも消費電力の少ないオーダーを約束する。
このようなシステム上でのスパイクベースの計算のための標準的なニューロンモデルは、長い間、統合と火災(LIF)ニューロンであった。
いわゆるアダプティブLIFニューロンの根源はよく分かっていない。
論文 参考訳(メタデータ) (2024-08-14T12:49:58Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Simple and complex spiking neurons: perspectives and analysis in a
simple STDP scenario [0.7829352305480283]
スパイキングニューラルネットワーク(SNN)は、生物学や神経科学にヒントを得て、高速で効率的な学習システムを構築する。
この研究は、文学における様々なニューロンモデルを考察し、単変数で効率的な計算ニューロンモデルを選択し、様々な種類の複雑さを提示する。
我々は, LIF, Quadratic I&F (QIF) および Exponential I&F (EIF) の3つの単純なI&Fニューロンモデルの比較研究を行い, より複雑なモデルの使用によってシステムの性能が向上するかどうかを検証した。
論文 参考訳(メタデータ) (2022-06-28T10:01:51Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Recurrent Neural Network Learning of Performance and Intrinsic
Population Dynamics from Sparse Neural Data [77.92736596690297]
本稿では,RNNの入出力動作だけでなく,内部ネットワークのダイナミクスも学習できる新しいトレーニング戦略を提案する。
提案手法は、RNNを訓練し、生理学的にインスパイアされた神経モデルの内部ダイナミクスと出力信号を同時に再現する。
注目すべきは、トレーニングアルゴリズムがニューロンの小さなサブセットの活性に依存する場合であっても、内部動力学の再現が成功することである。
論文 参考訳(メタデータ) (2020-05-05T14:16:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。