論文の概要: Sufficient conditions for offline reactivation in recurrent neural networks
- arxiv url: http://arxiv.org/abs/2505.17003v1
- Date: Thu, 22 May 2025 17:57:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:48.55052
- Title: Sufficient conditions for offline reactivation in recurrent neural networks
- Title(参考訳): リカレントニューラルネットワークにおけるオフライン再活性化のための十分条件
- Authors: Nanda H. Krishna, Colin Bredenberg, Daniel Levenstein, Blake A. Richards, Guillaume Lajoie,
- Abstract要約: タスク最適化ネットワークは、オンライン行動に責任を負う同一のネットワーク状態を自律的に再活性化できることを示す。
環境状態変数の追跡に最適化されたノイズリカレントネットワークが自然にデノジングダイナミクスを発達させることを数学的に示す。
我々の研究は、ノイズの多いニューラルネットワークにおけるタスク最適化の突発的な結果としてオフライン再活性化をモデル化するための理論的支援を提供する。
- 参考スコア(独自算出の注目度): 12.88966413911544
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: During periods of quiescence, such as sleep, neural activity in many brain circuits resembles that observed during periods of task engagement. However, the precise conditions under which task-optimized networks can autonomously reactivate the same network states responsible for online behavior is poorly understood. In this study, we develop a mathematical framework that outlines sufficient conditions for the emergence of neural reactivation in circuits that encode features of smoothly varying stimuli. We demonstrate mathematically that noisy recurrent networks optimized to track environmental state variables using change-based sensory information naturally develop denoising dynamics, which, in the absence of input, cause the network to revisit state configurations observed during periods of online activity. We validate our findings using numerical experiments on two canonical neuroscience tasks: spatial position estimation based on self-motion cues, and head direction estimation based on angular velocity cues. Overall, our work provides theoretical support for modeling offline reactivation as an emergent consequence of task optimization in noisy neural circuits.
- Abstract(参考訳): 多くの脳回路における神経活動は、睡眠のようなクイセンシスの期間において、タスクエンゲージメントの期間に観察されるものと類似している。
しかし、タスク最適化ネットワークがオンライン行動に責任を負う同一のネットワーク状態を自律的に再活性化できる正確な条件は理解されていない。
本研究では,スムースに変化する刺激の特徴を符号化する回路において,神経反応性の出現に十分な条件を記述した数学的枠組みを開発する。
本研究では,変化に基づく感覚情報を用いた環境状態変数の追跡に最適化されたノイズリカレントネットワークが,入力がない場合,オンライン活動中に観測された状態構成を再検討する認知力学を自然に発達させることを数学的に示す。
本研究では,2つの正準神経科学課題に関する数値実験を用いて,自己運動の手がかりに基づく空間的位置推定,角速度の手がかりに基づく方向推定を行った。
我々の研究は、ノイズの多いニューラルネットワークにおけるタスク最適化の創発的な結果として、オフライン再活性化をモデル化するための理論的支援を提供する。
関連論文リスト
- Allostatic Control of Persistent States in Spiking Neural Networks for perception and computation [79.16635054977068]
本稿では,アロスタシスの概念を内部表現の制御に拡張することにより,環境に対する知覚的信念を更新するための新しいモデルを提案する。
本稿では,アトラクタネットワークにおける活動の急増を空間的数値表現として利用する数値認識の応用に焦点を当てる。
論文 参考訳(メタデータ) (2025-03-20T12:28:08Z) - Exploring neural oscillations during speech perception via surrogate gradient spiking neural networks [59.38765771221084]
本稿では、ディープラーニングフレームワークと互換性があり、スケーラブルな、生理学的にインスパイアされた音声認識アーキテクチャを提案する。
本研究では, 終末から終末までの勾配降下訓練が, 中枢スパイク神経ネットワークにおける神経振動の出現に繋がることを示す。
本研究は, スパイク周波数適応やリカレント接続などのフィードバック機構が, 認識性能を向上させるために, 神経活動の調節と同期に重要な役割を担っていることを明らかにする。
論文 参考訳(メタデータ) (2024-04-22T09:40:07Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Latent Equilibrium: A unified learning theory for arbitrarily fast
computation with arbitrarily slow neurons [0.7340017786387767]
遅いコンポーネントのネットワークにおける推論と学習のための新しいフレームワークであるLatent Equilibriumを紹介する。
我々は, ニューロンとシナプスのダイナミクスを, 将来的なエネルギー関数から導出する。
本稿では,大脳皮質微小循環の詳細なモデルに我々の原理を適用する方法について述べる。
論文 参考訳(メタデータ) (2021-10-27T16:15:55Z) - Stability of Internal States in Recurrent Neural Networks Trained on
Regular Languages [0.0]
正規言語認識のためのニューラルネットワークの安定性について検討する。
この飽和状態において、ネットワークアクティベーションの分析は、有限状態機械における離散状態に似た一連のクラスターを示す。
入力シンボルに対応する状態間の遷移は決定論的かつ安定であることを示す。
論文 参考訳(メタデータ) (2020-06-18T19:50:15Z) - Exploring weight initialization, diversity of solutions, and degradation
in recurrent neural networks trained for temporal and decision-making tasks [0.0]
リカレントニューラルネットワーク(Recurrent Neural Networks, RNN)は、脳機能と構造をモデル化するために頻繁に使用される。
本研究では,時間変化刺激による時間・流れ制御タスクを行うために,小型完全接続型RNNを訓練した。
論文 参考訳(メタデータ) (2019-06-03T21:56:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。