論文の概要: Structural Plasticity as Active Inference: A Biologically-Inspired Architecture for Homeostatic Control
- arxiv url: http://arxiv.org/abs/2511.02241v1
- Date: Tue, 04 Nov 2025 04:07:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 18:47:05.803901
- Title: Structural Plasticity as Active Inference: A Biologically-Inspired Architecture for Homeostatic Control
- Title(参考訳): アクティブ推論としての構造的塑性--ホメオスタット制御のための生物学的に着想を得たアーキテクチャ
- Authors: Brennen A. Hill,
- Abstract要約: 本稿では,SAPIN(Structurely Adaptive Predictive Inference Network)を紹介する。
SAPINは2Dグリッド上で動作し、セルは局所的な予測エラーを最小限にすることで学習する。
従来のカートポール強化学習ベンチマークでSAPINモデルを検証した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditional neural networks, while powerful, rely on biologically implausible learning mechanisms such as global backpropagation. This paper introduces the Structurally Adaptive Predictive Inference Network (SAPIN), a novel computational model inspired by the principles of active inference and the morphological plasticity observed in biological neural cultures. SAPIN operates on a 2D grid where processing units, or cells, learn by minimizing local prediction errors. The model features two primary, concurrent learning mechanisms: a local, Hebbian-like synaptic plasticity rule based on the temporal difference between a cell's actual activation and its learned expectation, and a structural plasticity mechanism where cells physically migrate across the grid to optimize their information-receptive fields. This dual approach allows the network to learn both how to process information (synaptic weights) and also where to position its computational resources (network topology). We validated the SAPIN model on the classic Cart Pole reinforcement learning benchmark. Our results demonstrate that the architecture can successfully solve the CartPole task, achieving robust performance. The network's intrinsic drive to minimize prediction error and maintain homeostasis was sufficient to discover a stable balancing policy. We also found that while continual learning led to instability, locking the network's parameters after achieving success resulted in a stable policy. When evaluated for 100 episodes post-locking (repeated over 100 successful agents), the locked networks maintained an average 82% success rate.
- Abstract(参考訳): 従来のニューラルネットワークは、強力ではあるが、グローバルなバックプロパゲーションのような生物学的に理解できない学習メカニズムに依存している。
本稿では,生物の神経培養で観察される活性推論の原理と形態的可塑性から着想を得た新しい計算モデルである構造適応予測推論ネットワーク(SAPIN)を紹介する。
SAPINは2Dグリッド上で動作し、処理ユニットやセルは局所的な予測エラーを最小限にすることで学習する。
モデルは、局所的にヘビアン様のシナプス可塑性規則を、細胞の実際の活性化と学習期待との時間的差に基づいて、同時に学習する2つのメカニズムと、情報受容の場を最適化するために細胞がグリッドを物理的に移動する構造的可塑性機構を特徴としている。
この二重アプローチにより、ネットワークは情報(シナプス重み)の処理方法と、その計算資源(ネットワークトポロジー)の配置方法の両方を学ぶことができる。
従来のカートポール強化学習ベンチマークでSAPINモデルを検証した。
以上の結果から,CartPole タスクの解決に成功し,ロバストな性能を実現することができた。
予測誤差を最小限に抑え、ホメオスタシスを維持するためのネットワークの本質的な駆動は、安定したバランスの取れたポリシーを発見するのに十分であった。
また、連続的な学習が不安定に繋がる一方で、成功の後にネットワークのパラメータをロックすると、安定したポリシーがもたらされることがわかった。
ロック後100回(100回以上成功したエージェント)の評価では、ロックされたネットワークは平均82%の成功率を維持した。
関連論文リスト
- Learning in Spiking Neural Networks with a Calcium-based Hebbian Rule for Spike-timing-dependent Plasticity [0.46085106405479537]
我々は, シナプス修飾をカルシウムトレースの関数としてモデル化し, 神経活動を追跡するヘビーンの局所学習規則を提案する。
本モデルでは,ニューロンの平均発火速度を変化させることなく,ネットワークの学習速度を調節する方法について検討した。
論文 参考訳(メタデータ) (2025-04-09T11:39:59Z) - Allostatic Control of Persistent States in Spiking Neural Networks for perception and computation [79.16635054977068]
本稿では,アロスタシスの概念を内部表現の制御に拡張することにより,環境に対する知覚的信念を更新するための新しいモデルを提案する。
本稿では,アトラクタネットワークにおける活動の急増を空間的数値表現として利用する数値認識の応用に焦点を当てる。
論文 参考訳(メタデータ) (2025-03-20T12:28:08Z) - ConCerNet: A Contrastive Learning Based Framework for Automated
Conservation Law Discovery and Trustworthy Dynamical System Prediction [82.81767856234956]
本稿では,DNNに基づく動的モデリングの信頼性を向上させるために,ConCerNetという新しい学習フレームワークを提案する。
本手法は, 座標誤差と保存量の両方において, ベースラインニューラルネットワークよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-02-11T21:07:30Z) - Latent Equilibrium: A unified learning theory for arbitrarily fast
computation with arbitrarily slow neurons [0.7340017786387767]
遅いコンポーネントのネットワークにおける推論と学習のための新しいフレームワークであるLatent Equilibriumを紹介する。
我々は, ニューロンとシナプスのダイナミクスを, 将来的なエネルギー関数から導出する。
本稿では,大脳皮質微小循環の詳細なモデルに我々の原理を適用する方法について述べる。
論文 参考訳(メタデータ) (2021-10-27T16:15:55Z) - Biologically Plausible Training Mechanisms for Self-Supervised Learning
in Deep Networks [14.685237010856953]
我々は,深層ネットワークにおける自己教師付き学習(SSL)のための生物学的に妥当なトレーニング機構を開発する。
バックパゲーションの2つの選択肢のうちの1つを用いて学習を行うことができることを示す。
論文 参考訳(メタデータ) (2021-09-30T12:56:57Z) - Gradient Starvation: A Learning Proclivity in Neural Networks [97.02382916372594]
グラディエント・スターベーションは、タスクに関連する機能のサブセットのみをキャプチャすることで、クロスエントロピー損失を最小化するときに発生する。
この研究は、ニューラルネットワークにおけるそのような特徴不均衡の出現に関する理論的説明を提供する。
論文 参考訳(メタデータ) (2020-11-18T18:52:08Z) - Geometry Perspective Of Estimating Learning Capability Of Neural
Networks [0.0]
本稿では,勾配勾配勾配を用いた最小二乗回帰(SGD)を一般化したニューラルネットワークの幅広いクラスについて考察する。
一般化能力とニューラルネットワークの安定性との関係についても論じている。
ニューラルネットワークの学習理論と高エネルギー物理の原理を関連付けることにより,人工ニューラルネットワークの観点からの複雑性・摩擦予想の変種を確立する。
論文 参考訳(メタデータ) (2020-11-03T12:03:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。