論文の概要: A Variational Latent Equilibrium for Learning in Cortex
- arxiv url: http://arxiv.org/abs/2603.09600v1
- Date: Tue, 10 Mar 2026 12:44:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:24.313531
- Title: A Variational Latent Equilibrium for Learning in Cortex
- Title(参考訳): 皮質学習のための変分潜時平衡
- Authors: Simon Brandt, Paul Haider, Walter Senn, Federico Benitez, Mihai A. Petrovici,
- Abstract要約: ディープラーニングのアルゴリズムは、現在の脳回路とダイナミクスの理解とは相容れない。
本稿では,BPTTを生物学的に制御可能な方法で近似する一般形式性を提案する。
- 参考スコア(独自算出の注目度): 0.6926374435677599
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Brains remain unrivaled in their ability to recognize and generate complex spatiotemporal patterns. While AI is able to reproduce some of these capabilities, deep learning algorithms remain largely at odds with our current understanding of brain circuitry and dynamics. This is prominently the case for backpropagation through time (BPTT), the go-to algorithm for learning complex temporal dependencies. In this work we propose a general formalism to approximate BPTT in a controlled, biologically plausible manner. Our approach builds on, unifies and extends several previous approaches to local, time-continuous, phase-free spatiotemporal credit assignment based on principles of energy conservation and extremal action. Our starting point is a prospective energy function of neuronal states, from which we calculate real-time error dynamics for time-continuous neuronal networks. In the general case, this provides a simple and straightforward derivation of the adjoint method result for neuronal networks, the time-continuous equivalent to BPTT. With a few modifications, we can turn this into a fully local (in space and time) set of equations for neuron and synapse dynamics. Our theory provides a rigorous framework for spatiotemporal deep learning in the brain, while simultaneously suggesting a blueprint for physical circuits capable of carrying out these computations. These results reframe and extend the recently proposed Generalized Latent Equilibrium (GLE) model.
- Abstract(参考訳): 脳は、複雑な時空間パターンを認識し、生成する能力において未熟である。
AIはこれらの機能のいくつかを再現できるが、ディープラーニングのアルゴリズムは、現在の脳回路とダイナミクスの理解とは相容れない。
これは、複雑な時間依存を学習するためのgo-toアルゴリズムであるBPTT(backpropagation through time)のケースで顕著である。
本研究では,BPTTを生物学的に制御可能な方法で近似する一般形式論を提案する。
我々のアプローチは、エネルギー保存と極端作用の原理に基づいて、局所的、時間的、無位相な時空間的信用割り当てへのいくつかのアプローチを構築し、統一し、拡張する。
我々の出発点は神経状態の予測エネルギー関数であり、そこから時間連続神経ネットワークのリアルタイムエラーダイナミクスを計算する。
一般に、これは、BPTTと同等の時間連続性である、神経細胞のアドジョイント法の結果の単純で直接的な導出を提供する。
いくつかの修正を加えれば、これをニューロンとシナプス力学のための完全に局所的な(空間と時間における)方程式の集合に変えることができる。
我々の理論は、脳内の時空間深層学習のための厳密な枠組みを提供すると同時に、これらの計算を実行できる物理回路の青写真も提案している。
これらの結果は、最近提案された一般化潜在平衡 (Generalized Latent Equilibrium, GLE) モデルの再編成と拡張である。
関連論文リスト
- Unleashing Temporal Capacity of Spiking Neural Networks through Spatiotemporal Separation [67.69345363409835]
スパイキングニューラルネットワーク(SNN)は、時間的処理に自然に適していると考えられており、膜電位の伝播は、コア時間的モデリングメカニズムとして広く見なされている。
我々は, 膜伝播を段階的に段階的に除去する非ステートフル(NS)モデルの設計を行った。
論文 参考訳(メタデータ) (2025-12-05T07:05:53Z) - Fractional Spike Differential Equations Neural Network with Efficient Adjoint Parameters Training [63.3991315762955]
スパイキングニューラルネットワーク(SNN)は、生物学的ニューロンからインスピレーションを得て、脳に似た計算の現実的なモデルを作成する。
既存のほとんどのSNNは、マルコフ特性を持つ一階常微分方程式(ODE)によってモデル化された、神経細胞膜電圧ダイナミクスの単一時間定数を仮定している。
本研究では, 膜電圧およびスパイク列車の長期依存性を分数次力学により捉えるフラクタルSPIKE微分方程式ニューラルネットワーク (fspikeDE) を提案する。
論文 参考訳(メタデータ) (2025-07-22T18:20:56Z) - Langevin Flows for Modeling Neural Latent Dynamics [81.81271685018284]
逐次変分自動エンコーダであるLangevinFlowを導入し、潜伏変数の時間的進化をアンダーダム化したLangevin方程式で制御する。
われわれのアプローチは、慣性、減衰、学習されたポテンシャル関数、力などの物理的事前を組み込んで、ニューラルネットワークにおける自律的および非自律的プロセスの両方を表現する。
本手法は,ロレンツ誘引器によって生成される合成神経集団に対する最先端のベースラインより優れる。
論文 参考訳(メタデータ) (2025-07-15T17:57:48Z) - NOBLE -- Neural Operator with Biologically-informed Latent Embeddings to Capture Experimental Variability in Biological Neuron Models [63.592664795493725]
NOBLEは、解釈可能なニューロンの特徴を連続周波数変調した埋め込みから電流注入によって誘導されるソマティック電圧応答へのマッピングを学ぶ神経オペレーターフレームワークである。
内在的な実験変数を考慮したニューラルダイナミクスの分布を予測する。
NOBLEは、その一般化を実際の実験データで検証する最初の大規模ディープラーニングフレームワークである。
論文 参考訳(メタデータ) (2025-06-05T01:01:18Z) - Deep reinforcement learning with time-scale invariant memory [1.338174941551702]
我々は、スケール不変メモリの計算神経科学モデルを深部強化学習(RL)エージェントに統合する。
このようなエージェントは、広範囲の時間スケールで頑健に学習できることを示す。
この結果は、神経科学と認知科学の計算原理をディープニューラルネットワークに組み込むことで、複雑な時間力学への適応性を高めることを示唆している。
論文 参考訳(メタデータ) (2024-12-19T07:20:03Z) - Backpropagation through space, time, and the brain [2.10686639478348]
我々は、ニューロンの物理的、動的ネットワークにおける完全局所的時間的クレジット割り当てのための計算フレームワークであるGeneral Latent Equilibriumを紹介する。
特に、GLEは樹状樹の形態を利用して、単一ニューロンのより複雑な情報保存と処理を可能にしている。
論文 参考訳(メタデータ) (2024-03-25T16:57:02Z) - Latent Equilibrium: A unified learning theory for arbitrarily fast
computation with arbitrarily slow neurons [0.7340017786387767]
遅いコンポーネントのネットワークにおける推論と学習のための新しいフレームワークであるLatent Equilibriumを紹介する。
我々は, ニューロンとシナプスのダイナミクスを, 将来的なエネルギー関数から導出する。
本稿では,大脳皮質微小循環の詳細なモデルに我々の原理を適用する方法について述べる。
論文 参考訳(メタデータ) (2021-10-27T16:15:55Z) - Continuous Learning and Adaptation with Membrane Potential and
Activation Threshold Homeostasis [91.3755431537592]
本稿では,MPATH(Membrane Potential and Activation Threshold Homeostasis)ニューロンモデルを提案する。
このモデルにより、ニューロンは入力が提示されたときに自動的に活性を調節することで動的平衡の形式を維持することができる。
実験は、モデルがその入力から適応し、継続的に学習する能力を示す。
論文 参考訳(メタデータ) (2021-04-22T04:01:32Z) - Equilibrium Propagation with Continual Weight Updates [69.87491240509485]
時間によるバックプロパゲーション(BPTT)と密接に一致する勾配を計算し、機械学習と神経科学を橋渡しする学習アルゴリズムを提案する。
理論的には、学習速度が十分に小さい場合、第2相の各段階において、BPTTが与える損失の勾配に従ってニューロンとシナプスのダイナミクスが従うことを証明している。
これらの結果からEPは,後方伝播との親密な関係を維持しつつ,ハードウェアの制約に順応し,生物学に一歩近づいた。
論文 参考訳(メタデータ) (2020-04-29T14:54:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。