論文の概要: Learning Internal Biological Neuron Parameters and Complexity-Based Encoding for Improved Spiking Neural Networks Performance
- arxiv url: http://arxiv.org/abs/2508.11674v1
- Date: Fri, 08 Aug 2025 09:14:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-24 10:27:26.499513
- Title: Learning Internal Biological Neuron Parameters and Complexity-Based Encoding for Improved Spiking Neural Networks Performance
- Title(参考訳): スパイキングニューラルネットワーク性能向上のための内部生体ニューロンパラメータの学習と複雑度に基づく符号化
- Authors: Zofia Rudnicka, Janusz Szczepanski, Agnieszka Pregowska,
- Abstract要約: 本研究では、従来のパーセプトロンモデルを生物学的に誘発される確率論的メタニューロンモデルに置き換えることで、新しいアプローチを導入する。
第2の鍵となる貢献として、SNNとLe-Ziv可塑性(LZC)を一意に統合する、生物学的にインスパイアされた新しい分類フレームワークを提案する。
本稿では,バックプロパゲーション,スパイク刺激型アスペクト依存型可塑性(STDP),テンポトロン学習規則などの学習アルゴリズムを検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study introduces a novel approach by replacing the traditional perceptron neuron model with a biologically inspired probabilistic meta neuron, where the internal neuron parameters are jointly learned, leading to improved classification accuracy of spiking neural networks (SNNs). To validate this innovation, we implement and compare two SNN architectures: one based on standard leaky integrate-and-fire (LIF) neurons and another utilizing the proposed probabilistic meta neuron model. As a second key contribution, we present a new biologically inspired classification framework that uniquely integrates SNNs with Lempel-Ziv complexity (LZC) a measure closely related to entropy rate. By combining the temporal precision and biological plausibility of SNNs with the capacity of LZC to capture structural regularity, the proposed approach enables efficient and interpretable classification of spatiotemporal neural data, an aspect not addressed in existing works. We consider learning algorithms such as backpropagation, spike-timing-dependent plasticity (STDP), and the Tempotron learning rule. To explore neural dynamics, we use Poisson processes to model neuronal spike trains, a well-established method for simulating the stochastic firing behavior of biological neurons. Our results reveal that depending on the training method, the classifier's efficiency can improve by up to 11.00%, highlighting the advantage of learning additional neuron parameters beyond the traditional focus on weighted inputs alone.
- Abstract(参考訳): 本研究では,従来の知覚ニューロンモデルを生物学的に誘発される確率的メタニューロンに置き換えることにより,内部ニューロンパラメータを共同学習し,スパイキングニューラルネットワーク(SNN)の分類精度を向上させることにより,新しいアプローチを提案する。
この革新を検証するため、我々は、標準漏れ型統合火災ニューロン(LIF)と、提案した確率的メタニューロンモデルを利用した2つのSNNアーキテクチャを実装し、比較する。
第2の鍵となる貢献として,SNNとLempel-Ziv複雑性(LZC)をエントロピー率に密接に関連する指標として一意に統合する,生物学的にインスパイアされた新たな分類フレームワークを提案する。
提案手法は,SNNの時間的精度と生物学的妥当性をLZCの容量と組み合わせて構造的規則性を把握し,時空間ニューラルネットワークの効率的かつ解釈可能な分類を可能にする。
バックプロパゲーション,スパイクタイピング依存塑性(STDP),テンポトロン学習規則などの学習アルゴリズムを検討する。
ニューラルダイナミクスを探索するために、我々はPoissonプロセスを用いて神経スパイクトレインをモデル化し、生物学的ニューロンの確率的発火挙動をシミュレートする方法を確立した。
実験の結果,学習方法によって最大11.00%の効率が向上し,従来の重み付け入力のみに焦点をあてる以外に,追加のニューロンパラメータを学習するメリットが示された。
関連論文リスト
- Deep-Unrolling Multidimensional Harmonic Retrieval Algorithms on Neuromorphic Hardware [78.17783007774295]
本稿では,高精度かつエネルギー効率の高い単発多次元高調波検索のための変換に基づくニューロモルフィックアルゴリズムの可能性について検討する。
複雑な値の畳み込み層と活性化をスパイクニューラルネットワーク(SNN)に変換する新しい手法を開発した。
変換されたSNNは、元のCNNに比べて性能が低下し、ほぼ5倍の電力効率を実現している。
論文 参考訳(メタデータ) (2024-12-05T09:41:33Z) - Enhancing learning in spiking neural networks through neuronal heterogeneity and neuromodulatory signaling [52.06722364186432]
人工ニューラルネットワーク(ANN)の強化のための生物学的インフォームドフレームワークを提案する。
提案したデュアルフレームアプローチは、多様なスパイキング動作をエミュレートするためのスパイキングニューラルネットワーク(SNN)の可能性を強調している。
提案手法は脳にインスパイアされたコンパートメントモデルとタスク駆動型SNN, バイオインスピレーション, 複雑性を統合している。
論文 参考訳(メタデータ) (2024-07-05T14:11:28Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Multi-compartment Neuron and Population Encoding Powered Spiking Neural Network for Deep Distributional Reinforcement Learning [6.0483672878162515]
スパイキングニューラルネットワーク(SNN)では、スパイキングニューロンが基本的な情報処理ユニットとして機能する。
本稿では,SNNに基づく脳の深部分布強化学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-01-18T02:45:38Z) - A Synapse-Threshold Synergistic Learning Approach for Spiking Neural
Networks [1.8556712517882232]
スパイキングニューラルネットワーク(SNN)は、さまざまなインテリジェントなシナリオにおいて優れた機能を示している。
本研究では,SNNにおけるシナプス重みとスパイク閾値を同時に学習する新しいシナジー学習手法を開発する。
論文 参考訳(メタデータ) (2022-06-10T06:41:36Z) - SIT: A Bionic and Non-Linear Neuron for Spiking Neural Network [12.237928453571636]
スパイキングニューラルネットワーク(SNN)は、時間的情報処理能力と消費電力の低さから、研究者の関心を喚起している。
現在の最先端の手法は、ニューロンが単純な Leaky-Integrate-and-Fire (LIF) モデルに基づいて構築されているため、生物学的な可視性と性能を制限している。
高レベルの動的複雑さのため、現代のニューロンモデルがSNNの実践で実装されることはめったにない。
論文 参考訳(メタデータ) (2022-03-30T07:50:44Z) - Dynamic Neural Diversification: Path to Computationally Sustainable
Neural Networks [68.8204255655161]
訓練可能なパラメータが制限された小さなニューラルネットワークは、多くの単純なタスクに対してリソース効率の高い候補となる。
学習過程において隠れた層内のニューロンの多様性を探索する。
ニューロンの多様性がモデルの予測にどのように影響するかを分析する。
論文 参考訳(メタデータ) (2021-09-20T15:12:16Z) - Recurrent Neural Network Learning of Performance and Intrinsic
Population Dynamics from Sparse Neural Data [77.92736596690297]
本稿では,RNNの入出力動作だけでなく,内部ネットワークのダイナミクスも学習できる新しいトレーニング戦略を提案する。
提案手法は、RNNを訓練し、生理学的にインスパイアされた神経モデルの内部ダイナミクスと出力信号を同時に再現する。
注目すべきは、トレーニングアルゴリズムがニューロンの小さなサブセットの活性に依存する場合であっても、内部動力学の再現が成功することである。
論文 参考訳(メタデータ) (2020-05-05T14:16:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。