論文の概要: Astrocytes as a mechanism for meta-plasticity and contextually-guided
network function
- arxiv url: http://arxiv.org/abs/2311.03508v1
- Date: Mon, 6 Nov 2023 20:31:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-08 17:50:46.487495
- Title: Astrocytes as a mechanism for meta-plasticity and contextually-guided
network function
- Title(参考訳): 代謝可塑性機構としてのアストロサイトとネットワーク機能
- Authors: Lulu Gong, Fabio Pasqualetti, Thomas Papouin and ShiNung Ching
- Abstract要約: アストロサイトは哺乳類の脳において高度に発現し、高度にエニグマティックな細胞型である。
時間スケールの分離は、アストロサイトに文脈に依存した設定で学習を可能にする能力を与える。
- 参考スコア(独自算出の注目度): 2.66269503676104
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Astrocytes are a highly expressed and highly enigmatic cell-type in the
mammalian brain. Traditionally viewed as a mediator of basic physiological
sustenance, it is increasingly recognized that astrocytes may play a more
direct role in neural computation. A conceptual challenge to this idea is the
fact that astrocytic activity takes a very different form than that of neurons,
and in particular, occurs at orders-of-magnitude slower time-scales. In the
current paper, we engage how such time-scale separation may endow astrocytes
with the capability to enable learning in context-dependent settings, where
fluctuations in task parameters may occur much more slowly than within-task
requirements. This idea is based on the recent supposition that astrocytes,
owing to their sensitivity to a host of physiological covariates, may be
particularly well poised to modulate the dynamics of neural circuits in
functionally salient ways. We pose a general model of neural-synaptic-astrocyte
interaction and use formal analysis to characterize how astrocytic modulation
may constitute a form of meta-plasticity, altering the ways in which synapses
and neurons adapt as a function of time. We then embed this model in a
bandit-based reinforcement learning task environment, and show how the presence
of time-scale separated astrocytic modulation enables learning over multiple
fluctuating contexts. Indeed, these networks learn far more reliably versus
dynamically homogenous networks and conventional non-network-based bandit
algorithms. Our results indicate how the presence of neural-astrocyte
interaction in the brain may benefit learning over different time-scale and the
conveyance of task relevant contextual information onto circuit dynamics.
- Abstract(参考訳): アストロサイトは哺乳類の脳において高度に発現し、高度にエニグマティックな細胞型である。
伝統的に基本的な生理的サステナンスの仲介者として見なされ、アストロサイトは神経計算においてより直接的な役割を果たすことが認識されている。
この概念に対する概念的な挑戦は、天体活動がニューロンのそれとは全く異なる形態をとるという事実であり、特に、時間スケールのオーダーで起こる。
本稿では,タスクパラメータのゆらぎがタスク内要求よりもはるかに遅い場合において,このような時間スケールの分離によってアストロサイトがコンテキスト依存的な設定で学習できる可能性について論じる。
この考え方は、アストロサイトが生理的共変数のホストに対する感受性のため、神経回路のダイナミクスを機能的にサルエントな方法で調節するのに特に適しているという最近の仮定に基づいている。
神経-シナプス-アストロサイト相互作用の一般的なモデルを構築し、アストロサイトーシスの調節がどのようにメタ可塑性の形態になるかを形式的に解析し、シナプスとニューロンが時間の関数として適応するかを変化させる。
次に,このモデルをバンディットに基づく強化学習タスク環境に組み込むことにより,時間スケールの分離されたアストロサイト変調が,複数の変動するコンテキストを学習できることを示す。
実際、これらのネットワークは動的に均質なネットワークや従来の非ネットワークベースの帯域幅アルゴリズムよりもはるかに確実に学習する。
以上の結果から,脳内の神経-アストロサイト相互作用の存在が,時間スケールの異なる学習やタスク関連情報を回路力学へ伝達する上でどのような効果があるかが示唆された。
関連論文リスト
- Artificial Kuramoto Oscillatory Neurons [65.16453738828672]
しきい値単位の動的代替として人工内蔵ニューロン(AKOrN)を導入する。
このアイデアは、幅広いタスクにまたがってパフォーマンス改善をもたらすことを示しています。
これらの経験的結果は、神経表現の最も基本的なレベルにおいて、私たちの仮定の重要性を示していると信じている。
論文 参考訳(メタデータ) (2024-10-17T17:47:54Z) - Enhancing learning in spiking neural networks through neuronal heterogeneity and neuromodulatory signaling [52.06722364186432]
人工ニューラルネットワーク(ANN)の強化のための生物学的インフォームドフレームワークを提案する。
提案したデュアルフレームアプローチは、多様なスパイキング動作をエミュレートするためのスパイキングニューラルネットワーク(SNN)の可能性を強調している。
提案手法は脳にインスパイアされたコンパートメントモデルとタスク駆動型SNN, バイオインスピレーション, 複雑性を統合している。
論文 参考訳(メタデータ) (2024-07-05T14:11:28Z) - Exploring neural oscillations during speech perception via surrogate gradient spiking neural networks [59.38765771221084]
本稿では、ディープラーニングフレームワークと互換性があり、スケーラブルな、生理学的にインスパイアされた音声認識アーキテクチャを提案する。
本研究では, 終末から終末までの勾配降下訓練が, 中枢スパイク神経ネットワークにおける神経振動の出現に繋がることを示す。
本研究は, スパイク周波数適応やリカレント接続などのフィードバック機構が, 認識性能を向上させるために, 神経活動の調節と同期に重要な役割を担っていることを明らかにする。
論文 参考訳(メタデータ) (2024-04-22T09:40:07Z) - Backpropagation through space, time, and the brain [2.10686639478348]
我々は、ニューロンの物理的、動的ネットワークにおける完全局所的時間的クレジット割り当てのための計算フレームワークであるGeneral Latent Equilibriumを紹介する。
特に、GLEは樹状樹の形態を利用して、単一ニューロンのより複雑な情報保存と処理を可能にしている。
論文 参考訳(メタデータ) (2024-03-25T16:57:02Z) - Learning dynamic representations of the functional connectome in
neurobiological networks [41.94295877935867]
我々は、生きた行動する動物のニューロン間の動的親和性を学ぶために、教師なしのアプローチを導入する。
本研究では,ニューロン間の因果関係を強く予測し,行動を生成する手法を提案する。
論文 参考訳(メタデータ) (2024-02-21T19:54:25Z) - Astrocyte-Enabled Advancements in Spiking Neural Networks for Large
Language Modeling [7.863029550014263]
Astrocyte-Modulated Spiking Neural Network (AstroSNN) は、記憶保持や自然言語生成に関わるタスクにおいて、例外的な性能を示す。
AstroSNNは、実用的なアプリケーションで低レイテンシ、高スループット、メモリ使用量の削減を示す。
論文 参考訳(メタデータ) (2023-12-12T06:56:31Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Constraints on the design of neuromorphic circuits set by the properties
of neural population codes [61.15277741147157]
脳内では、情報はコード化され、伝達され、行動を伝えるために使用される。
ニューロモルフィック回路は、脳内のニューロンの集団が使用するものと互換性のある方法で情報を符号化する必要がある。
論文 参考訳(メタデータ) (2022-12-08T15:16:04Z) - Continuous Learning and Adaptation with Membrane Potential and
Activation Threshold Homeostasis [91.3755431537592]
本稿では,MPATH(Membrane Potential and Activation Threshold Homeostasis)ニューロンモデルを提案する。
このモデルにより、ニューロンは入力が提示されたときに自動的に活性を調節することで動的平衡の形式を維持することができる。
実験は、モデルがその入力から適応し、継続的に学習する能力を示す。
論文 参考訳(メタデータ) (2021-04-22T04:01:32Z) - Advantages of biologically-inspired adaptive neural activation in RNNs
during learning [10.357949759642816]
生体ニューロンの入力周波数応答曲線にインスパイアされた非線形活性化関数のパラメトリックファミリーを導入する。
アクティベーション適応はタスク固有のソリューションを提供し、場合によっては学習速度と性能の両方を改善する。
論文 参考訳(メタデータ) (2020-06-22T13:49:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。