論文の概要: Dynamic Weight Adaptation in Spiking Neural Networks Inspired by Biological Homeostasis
- arxiv url: http://arxiv.org/abs/2511.17563v1
- Date: Thu, 13 Nov 2025 14:14:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-07 19:06:32.280121
- Title: Dynamic Weight Adaptation in Spiking Neural Networks Inspired by Biological Homeostasis
- Title(参考訳): 生体内ホメオスタシスによるスパイキングニューラルネットワークの動的重み適応
- Authors: Yunduo Zhou, Bo Dong, Chang Li, Yuanchen Wang, Xuefeng Yin, Yang Wang, Xin Yang,
- Abstract要約: スパイクニューラルネットワーク(SNN)のための動的重み適応機構(DWAM)を提案する。
DWAMはホストSNNに統合することができ、ネットワーク重量をリアルタイムで動的に調整し、ニューロンの活動を制御する。
- 参考スコア(独自算出の注目度): 19.180070736564883
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Homeostatic mechanisms play a crucial role in maintaining optimal functionality within the neural circuits of the brain. By regulating physiological and biochemical processes, these mechanisms ensure the stability of an organism's internal environment, enabling it to better adapt to external changes. Among these mechanisms, the Bienenstock, Cooper, and Munro (BCM) theory has been extensively studied as a key principle for maintaining the balance of synaptic strengths in biological systems. Despite the extensive development of spiking neural networks (SNNs) as a model for bionic neural networks, no prior work in the machine learning community has integrated biologically plausible BCM formulations into SNNs to provide homeostasis. In this study, we propose a Dynamic Weight Adaptation Mechanism (DWAM) for SNNs, inspired by the BCM theory. DWAM can be integrated into the host SNN, dynamically adjusting network weights in real time to regulate neuronal activity, providing homeostasis to the host SNN without any fine-tuning. We validated our method through dynamic obstacle avoidance and continuous control tasks under both normal and specifically designed degraded conditions. Experimental results demonstrate that DWAM not only enhances the performance of SNNs without existing homeostatic mechanisms under various degraded conditions but also further improves the performance of SNNs that already incorporate homeostatic mechanisms.
- Abstract(参考訳): 恒常的なメカニズムは、脳の神経回路の中で最適な機能を維持する上で重要な役割を担っている。
生理的および生化学的プロセスの調節により、これらのメカニズムは生物の内部環境の安定性を保証し、外部の変化に適応することができる。
これらのメカニズムの中で、ビエンストック、クーパー、ムンロ(BCM)理論は、生体系におけるシナプス強度のバランスを維持するための重要な原理として広く研究されている。
バイオニックニューラルネットワークのモデルとしてスパイキングニューラルネットワーク(SNN)が広く開発されているにもかかわらず、機械学習コミュニティでは、生物学的にもっともらしいBCMの定式化をSNNに統合してホメオスタシスを提供している。
本研究では,BCM理論にインスパイアされたSNNのための動的重み適応機構(DWAM)を提案する。
DWAMはホストSNNに統合することができ、ネットワーク重量をリアルタイムで動的に調整し、ニューロンの活動を制御する。
本研究では, 動的障害物回避および連続制御タスクを通じて, 正常および特別に設計された劣化条件下での手法の有効性を検証した。
DWAMは, 種々の劣化条件下での既存のホメオスタット機構を使わずにSNNの性能を向上するだけでなく, 既にホメオスタット機構を組み込んだSNNの性能も向上することを示した。
関連論文リスト
- Neuronal Group Communication for Efficient Neural representation [85.36421257648294]
本稿では, 効率的な, モジュラー, 解釈可能な表現を学習する, 大規模ニューラルシステムの構築方法に関する問題に対処する。
本稿では、ニューラルネットワークを相互作用する神経群の動的システムとして再認識する理論駆動型フレームワークである神経グループ通信(NGC)を提案する。
NGCは、重みを埋め込みのようなニューロン状態間の過渡的な相互作用として扱い、神経計算はニューロン群間の反復的なコミュニケーションを通じて展開する。
論文 参考訳(メタデータ) (2025-10-19T14:23:35Z) - Training Deep Normalization-Free Spiking Neural Networks with Lateral Inhibition [52.59263087086756]
深層ニューラルネットワーク(SNN)のトレーニングは、バッチ正規化のような明示的な正規化スキームに依存している。
本研究では,皮質回路にインスパイアされた側方抑制を取り入れた正規化自由学習フレームワークを提案する。
本稿では,生物リアリズムを持つ深層SNNの安定的学習を可能にするとともに,明示的な正規化に頼らずに競争性能を達成できることを述べる。
論文 参考訳(メタデータ) (2025-09-27T11:11:30Z) - A Brain-Inspired Gating Mechanism Unlocks Robust Computation in Spiking Neural Networks [5.647576619206974]
神経活動に応じて膜伝導が進化する新しいスパイクユニットであるDynamic Gated Neuron(DGN)を紹介する。
この結果から, 生物学的に妥当な動的ゲーティングが, 強靭なスパイクベースの計算の鍵となる機構であることを初めて強調した。
論文 参考訳(メタデータ) (2025-09-03T13:00:49Z) - IP$^{2}$-RSNN: Bi-level Intrinsic Plasticity Enables Learning-to-learn in Recurrent Spiking Neural Networks [20.88195975299024]
2レベル内在性可塑性を有する繰り返しスパイクニューラルネットワーク(IP$2$-RSNN)を開発した。
以上の結果から,RSNNにおけるL2Lの実現には,両レベルの内在性可塑性が重要な役割を担っていることが示唆された。
論文 参考訳(メタデータ) (2025-01-24T14:45:03Z) - Improving the adaptive and continuous learning capabilities of artificial neural networks: Lessons from multi-neuromodulatory dynamics [37.015600422825855]
生物学的生物は、動的環境に適応しながら知識を取得し、移動し、保持する。
本研究は,生物学習システムの基本的特徴である神経調節が,破滅的な忘れ込みなどの課題にどのように対処できるかを考察する。
マルチスケールの神経調節を統合することで,生物学習と人工システムとのギャップを埋めることを目指す。
論文 参考訳(メタデータ) (2025-01-12T10:10:01Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - On the Intrinsic Structures of Spiking Neural Networks [66.57589494713515]
近年、時間依存データやイベント駆動データを扱う大きな可能性から、SNNへの関心が高まっている。
スパイキング計算における本質的な構造の影響を総合的に調査する研究が数多く行われている。
この研究はSNNの本質的な構造を深く掘り下げ、SNNの表現性への影響を解明する。
論文 参考訳(メタデータ) (2022-06-21T09:42:30Z) - Increasing Liquid State Machine Performance with Edge-of-Chaos Dynamics
Organized by Astrocyte-modulated Plasticity [0.0]
液体状態機械(LSM)は勾配のバックプロパゲーションなしで内部重量を調整する。
近年の知見は、アストロサイトがシナプスの可塑性と脳のダイナミクスを調節していることを示唆している。
本稿では, 自己組織的近接臨界力学を用いて, 性能の低いニューロン-アストロサイト液状状態機械 (NALSM) を提案する。
論文 参考訳(メタデータ) (2021-10-26T23:04:40Z) - Continuous Learning and Adaptation with Membrane Potential and
Activation Threshold Homeostasis [91.3755431537592]
本稿では,MPATH(Membrane Potential and Activation Threshold Homeostasis)ニューロンモデルを提案する。
このモデルにより、ニューロンは入力が提示されたときに自動的に活性を調節することで動的平衡の形式を維持することができる。
実験は、モデルがその入力から適応し、継続的に学習する能力を示す。
論文 参考訳(メタデータ) (2021-04-22T04:01:32Z) - Recurrent Neural Network Learning of Performance and Intrinsic
Population Dynamics from Sparse Neural Data [77.92736596690297]
本稿では,RNNの入出力動作だけでなく,内部ネットワークのダイナミクスも学習できる新しいトレーニング戦略を提案する。
提案手法は、RNNを訓練し、生理学的にインスパイアされた神経モデルの内部ダイナミクスと出力信号を同時に再現する。
注目すべきは、トレーニングアルゴリズムがニューロンの小さなサブセットの活性に依存する場合であっても、内部動力学の再現が成功することである。
論文 参考訳(メタデータ) (2020-05-05T14:16:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。