論文の概要: Computational models of learning and synaptic plasticity
- arxiv url: http://arxiv.org/abs/2412.05501v1
- Date: Sat, 07 Dec 2024 02:03:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-10 14:56:07.241026
- Title: Computational models of learning and synaptic plasticity
- Title(参考訳): 学習の計算モデルとシナプス可塑性
- Authors: Danil Tyulmankov,
- Abstract要約: 生体内で観察される可塑性現象の多様性を説明するために, シナプス可塑性の数学的モデルが提案されている。
本稿では,いくつかの基本的な学習パラダイムと,それらの実装に使用されるシナプス的可塑性規則について論じる。
- 参考スコア(独自算出の注目度): 1.0878040851638
- License:
- Abstract: Many mathematical models of synaptic plasticity have been proposed to explain the diversity of plasticity phenomena observed in biological organisms. These models range from simple interpretations of Hebb's postulate, which suggests that correlated neural activity leads to increases in synaptic strength, to more complex rules that allow bidirectional synaptic updates, ensure stability, or incorporate additional signals like reward or error. At the same time, a range of learning paradigms can be observed behaviorally, from Pavlovian conditioning to motor learning and memory recall. Although it is difficult to directly link synaptic updates to learning outcomes experimentally, computational models provide a valuable tool for building evidence of this connection. In this chapter, we discuss several fundamental learning paradigms, along with the synaptic plasticity rules that might be used to implement them.
- Abstract(参考訳): 生体内で観察される可塑性現象の多様性を説明するために, シナプス可塑性の数学的モデルが提案されている。
これらのモデルは、相関した神経活動がシナプス強度の増加につながることを示唆するヘッブの仮定の単純な解釈から、双方向のシナプス更新を許容するより複雑な規則、安定性の確保、報酬やエラーのような追加のシグナルの取り込みまで様々である。
同時に、パヴロヴィアの条件付けから運動学習や記憶記憶のリコールまで、様々な学習パラダイムを行動的に観察することができる。
シナプス的更新と学習結果を直接リンクすることは難しいが、計算モデルは、この関係の証拠を構築する貴重なツールを提供する。
本章では,いくつかの基本的学習パラダイムと,それらを実装するためのシナプス的可塑性規則について論じる。
関連論文リスト
- Deep Learning Through A Telescoping Lens: A Simple Model Provides Empirical Insights On Grokking, Gradient Boosting & Beyond [61.18736646013446]
その驚くべき振る舞いをより深く理解するために、トレーニングされたニューラルネットワークの単純かつ正確なモデルの有用性について検討する。
3つのケーススタディで、様々な顕著な現象に関する新しい経験的洞察を導き出すためにどのように適用できるかを説明します。
論文 参考訳(メタデータ) (2024-10-31T22:54:34Z) - Artificial Kuramoto Oscillatory Neurons [65.16453738828672]
しきい値単位の動的代替として人工内蔵ニューロン(AKOrN)を導入する。
このアイデアは、幅広いタスクにまたがってパフォーマンス改善をもたらすことを示しています。
これらの経験的結果は、神経表現の最も基本的なレベルにおいて、私たちの仮定の重要性を示していると信じている。
論文 参考訳(メタデータ) (2024-10-17T17:47:54Z) - Contrastive Learning in Memristor-based Neuromorphic Systems [55.11642177631929]
スパイクニューラルネットワークは、現代のバックプロパゲーションによって訓練されたディープネットワークに直面する重要な制約の多くを横取りする、ニューロンベースのモデルの重要なファミリーとなっている。
本研究では,前向き・後向き学習のニューロモルフィック形式であるコントラッシブ・シグナル依存型塑性(CSDP)の概念実証を設計し,検討する。
論文 参考訳(メタデータ) (2024-09-17T04:48:45Z) - Learning with Chemical versus Electrical Synapses -- Does it Make a
Difference? [61.85704286298537]
バイオインスパイアされたニューラルネットワークは、ニューラルネットワークの理解を深め、AIシステムの最先端を改善する可能性がある。
我々は,光リアルな自律走行シミュレータを用いて自律車線維持実験を行い,その性能を種々の条件下で評価する。
論文 参考訳(メタデータ) (2023-11-21T13:07:20Z) - On the Trade-off Between Efficiency and Precision of Neural Abstraction [62.046646433536104]
ニューラル抽象化は、最近、複雑な非線形力学モデルの形式近似として導入されている。
我々は形式的帰納的合成法を用いて、これらのセマンティクスを用いた動的モデルをもたらすニューラル抽象化を生成する。
論文 参考訳(メタデータ) (2023-07-28T13:22:32Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Phenomenological modeling of diverse and heterogeneous synaptic dynamics
at natural density [0.0]
この章は、計算神経科学の観点から、脳のシナプス的構造に光を当てている。
これは、数学的モデルにおける経験的データの説明方法、ソフトウェアでそれらを実装し、実験を反映するシミュレーションを実行する方法について、序文の概要を提供する。
論文 参考訳(メタデータ) (2022-12-10T19:24:58Z) - Meta-Learning Biologically Plausible Plasticity Rules with Random
Feedback Pathways [0.0]
我々は,解釈可能で生物学的に妥当な可塑性規則を発見するための新しいメタ可塑性法を開発した。
本研究は,生物の制約を満たす効果的な,解釈可能な学習規則を見出すためのメタ塑性の可能性を明らかにするものである。
論文 参考訳(メタデータ) (2022-10-28T21:40:56Z) - Spike-based local synaptic plasticity: A survey of computational models
and neuromorphic circuits [1.8464222520424338]
シナプス可塑性のモデル化における歴史的,ボトムアップ的,トップダウン的なアプローチを概観する。
スパイクベース学習ルールの低レイテンシおよび低消費電力ハードウェア実装をサポートする計算プリミティブを同定する。
論文 参考訳(メタデータ) (2022-09-30T15:35:04Z) - A Spiking Neuron Synaptic Plasticity Model Optimized for Unsupervised
Learning [0.0]
スパイキングニューラルネットワーク(SNN)は、教師なし、教師なし、強化学習など、あらゆる種類の学習タスクを実行するための視点ベースとして考えられている。
SNNでの学習は、シナプス前およびシナプス後ニューロンの活動に依存するシナプス重みのダイナミクスを決定する規則であるシナプス可塑性によって実施される。
論文 参考訳(メタデータ) (2021-11-12T15:26:52Z) - Embodied Synaptic Plasticity with Online Reinforcement learning [5.6006805285925445]
本稿では,これら2つの分野からオープンソースソフトウェアコンポーネントを統合することにより,計算神経科学とロボティクスの分野を連携させることに寄与する。
本稿では, オンライン強化学習(SPORE)によるシナプス塑性評価の枠組みについて述べる。
論文 参考訳(メタデータ) (2020-03-03T10:29:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。