論文の概要: On Biologically Plausible Learning in Continuous Time
- arxiv url: http://arxiv.org/abs/2510.18808v1
- Date: Tue, 21 Oct 2025 17:04:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:13.943344
- Title: On Biologically Plausible Learning in Continuous Time
- Title(参考訳): 連続時間における生物学的プラウシブル学習について
- Authors: Marc Gong Bacvanski, Liu Ziyin, Tomaso Poggio,
- Abstract要約: 本研究では,生物学的に妥当な学習アルゴリズムを統一した連続時間ニューラルモデルについて検討する。
勾配降下法(SGD)、フィードバックアライメント法(FA)、直接フィードバックアライメント法(DFA)、コレン・ポラック法(KP)などの規則は、力学の制約として自然に現れる。
シミュレーションにより、これらの連続時間ネットワークは、時間的ミスマッチや統合ノイズの下でも、生物学的な時間スケールで安定して学習することが示される。
- 参考スコア(独自算出の注目度): 7.8697431086492955
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Biological learning unfolds continuously in time, yet most algorithmic models rely on discrete updates and separate inference and learning phases. We study a continuous-time neural model that unifies several biologically plausible learning algorithms and removes the need for phase separation. Rules including stochastic gradient descent (SGD), feedback alignment (FA), direct feedback alignment (DFA), and Kolen-Pollack (KP) emerge naturally as limiting cases of the dynamics. Simulations show that these continuous-time networks stably learn at biological timescales, even under temporal mismatches and integration noise. Through analysis and simulation, we show that learning depends on temporal overlap: a synapse updates correctly only when its input and the corresponding error signal coincide in time. When inputs are held constant, learning strength declines linearly as the delay between input and error approaches the stimulus duration, explaining observed robustness and failure across network depths. Critically, robust learning requires the synaptic plasticity timescale to exceed the stimulus duration by one to two orders of magnitude. For typical cortical stimuli (tens of milliseconds), this places the functional plasticity window in the few-second range, a testable prediction that identifies seconds-scale eligibility traces as necessary for error-driven learning in biological circuits.
- Abstract(参考訳): 生物学的学習は時間とともに展開するが、ほとんどのアルゴリズムモデルは離散的な更新と推論と学習フェーズの分離に依存している。
本研究では, 生物学的に妥当な学習アルゴリズムを統一し, 位相分離の必要性を除去する連続時間ニューラルモデルについて検討する。
確率勾配降下法(SGD)、フィードバックアライメント法(FA)、直接フィードバックアライメント法(DFA)、コレン・ポラック法(KP)などの規則は、力学の限界として自然に現れる。
シミュレーションにより、これらの連続時間ネットワークは、時間的ミスマッチや統合ノイズの下でも、生物学的な時間スケールで安定して学習することが示される。
解析とシミュレーションにより、学習は時間重なりに依存し、シナプスはその入力と対応するエラー信号が時間内に一致する場合にのみ正しく更新されることを示す。
入力が一定であれば、入力とエラーの間の遅延が刺激時間に近づくにつれて学習強度は線形に低下し、ネットワーク深度にわたって観測されたロバスト性と失敗を説明する。
批判的に、頑健な学習にはシナプスの可塑性の時間スケールが1~2桁の刺激時間を超える必要がある。
典型的な皮質刺激(ミリ秒)では、機能的可塑性ウィンドウを数秒の範囲に配置し、生物学的回路におけるエラー駆動学習に必要な数秒スケールの可視性トレースを識別するテスト可能な予測である。
関連論文リスト
- Extending Spike-Timing Dependent Plasticity to Learning Synaptic Delays [50.45313162890861]
シナプス接続強度と遅延を同時に学習するための新しい学習規則を導入する。
我々は、教師なし学習で訓練された分類のための広く使われているSNNモデルを拡張して、我々のアプローチを検証する。
その結果,提案手法は様々なテストシナリオにおいて常に優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2025-06-17T21:24:58Z) - Learning Delays Through Gradients and Structure: Emergence of Spatiotemporal Patterns in Spiking Neural Networks [0.06752396542927405]
学習可能なシナプス遅延を2つのアプローチで組み込んだスパイキングニューラルネットワーク(SNN)モデルを提案する。
後者のアプローチでは、ネットワークは接続を選択してプーンし、スパース接続設定の遅延を最適化する。
本研究では,時間的データ処理のための効率的なSNNモデルを構築するために,遅延学習と動的プルーニングを組み合わせる可能性を示す。
論文 参考訳(メタデータ) (2024-07-07T11:55:48Z) - Backpropagation through space, time, and the brain [2.10686639478348]
我々は、ニューロンの物理的、動的ネットワークにおける完全局所的時間的クレジット割り当てのための計算フレームワークであるGeneral Latent Equilibriumを紹介する。
特に、GLEは樹状樹の形態を利用して、単一ニューロンのより複雑な情報保存と処理を可能にしている。
論文 参考訳(メタデータ) (2024-03-25T16:57:02Z) - TC-LIF: A Two-Compartment Spiking Neuron Model for Long-Term Sequential
Modelling [54.97005925277638]
潜在的な可能性や危険に関連する感覚的手がかりの同定は、長期間の遅延によって有用な手がかりを分離する無関係な事象によってしばしば複雑になる。
SNN(State-of-the-art spiking Neural Network)は、遠方のキュー間の長期的な時間的依存関係を確立する上で、依然として困難な課題である。
そこで本研究では,T-LIFとよばれる,生物学的にインスパイアされたTwo-compartment Leaky Integrate- and-Fireのスパイキングニューロンモデルを提案する。
論文 参考訳(メタデータ) (2023-08-25T08:54:41Z) - Critical Learning Periods Emerge Even in Deep Linear Networks [102.89011295243334]
クリティカルラーニング期間(Critical Learning periods)は、一時的な感覚障害が行動や学習表現に恒久的な影響を及ぼす発達初期の期間である。
生物学的ネットワークと人工ネットワークの急激な違いにもかかわらず、両方のシステムで臨界学習期間が経験的に観察されている。
論文 参考訳(メタデータ) (2023-08-23T16:01:50Z) - On the Dynamics of Learning Time-Aware Behavior with Recurrent Neural
Networks [2.294014185517203]
隠れ時間変数に依存する教師付き学習タスクのファミリーを導入する。
我々は、長期記憶に対する時間認識の必要性を強調する時間的フリップフロップをエミュレートするためにRNNを訓練する。
これらのRNNは、遷移規則の周期を時間変調する周期軌道を切り替えることを学ぶ。
論文 参考訳(メタデータ) (2023-06-12T14:01:30Z) - Holomorphic Equilibrium Propagation Computes Exact Gradients Through
Finite Size Oscillations [5.279475826661643]
平衡伝播(Equilibrium propagation、EP)は、深層ニューラルネットワークの局所学習規則によるトレーニングを可能にするバックプロパゲーション(BP)の代替である。
この拡張が有限振幅の教示信号に対しても自然に正確な勾配をもたらすことを示す。
我々は、ImageNet 32x32データセット上でEPの最初のベンチマークを確立し、BPでトレーニングされた等価ネットワークの性能と一致することを示す。
論文 参考訳(メタデータ) (2022-09-01T15:23:49Z) - Consistency of mechanistic causal discovery in continuous-time using
Neural ODEs [85.7910042199734]
ダイナミカルシステムの研究において,連続時間における因果的発見を検討する。
本稿では,ニューラルネットワークを用いた因果探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-05-06T08:48:02Z) - A Novel Anomaly Detection Algorithm for Hybrid Production Systems based
on Deep Learning and Timed Automata [73.38551379469533]
DAD:DeepAnomalyDetectionは,ハイブリッド生産システムにおける自動モデル学習と異常検出のための新しいアプローチである。
深層学習とタイムドオートマトンを組み合わせて、観察から行動モデルを作成する。
このアルゴリズムは実システムからの2つのデータを含む少数のデータセットに適用され、有望な結果を示している。
論文 参考訳(メタデータ) (2020-10-29T08:27:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。