論文の概要: A Computational Model of Learning and Memory Using Structurally Dynamic Cellular Automata
- arxiv url: http://arxiv.org/abs/2501.06192v1
- Date: Fri, 20 Dec 2024 17:26:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-19 09:06:25.953241
- Title: A Computational Model of Learning and Memory Using Structurally Dynamic Cellular Automata
- Title(参考訳): 構造動的セルオートマタを用いた学習と記憶の計算モデル
- Authors: Jeet Singh,
- Abstract要約: そこで本研究では,生物工学的手法に基づく学習と記憶の数学的・計算モデルを提案する。
実験結果から,1回のトレーニング実行後に報酬状態を再発見するために,モデルが最適に近い選択をすることができることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: In the fields of computation and neuroscience, much is still unknown about the underlying computations that enable key cognitive functions including learning, memory, abstraction and behavior. This paper proposes a mathematical and computational model of learning and memory based on a small set of bio-plausible functions that include coincidence detection, signal modulation, and reward/penalty mechanisms. Our theoretical approach proposes that these basic functions are sufficient to establish and modulate an information space over which computation can be carried out, generating signal gradients usable for inference and behavior. The computational method used to test this is a structurally dynamic cellular automaton with continuous-valued cell states and a series of recursive steps propagating over an undirected graph with the memory function embedded entirely in the creation and modulation of graph edges. The experimental results show: that the toy model can make near-optimal choices to re-discover a reward state after a single training run; that it can avoid complex penalty configurations; that signal modulation and network plasticity can generate exploratory behaviors in sparse reward environments; that the model generates context-dependent memory representations; and that it exhibits high computational efficiency because of its minimal, single-pass training requirements combined with flexible and contextual memory representation.
- Abstract(参考訳): 計算と神経科学の分野では、学習、記憶、抽象化、行動を含む重要な認知機能を実現する基礎となる計算について、多くのことがまだ不明である。
本稿では, 偶然検出, 信号変調, 報酬/報酬機構を含む, 生物工学的機能セットに基づく, 学習と記憶の数学的・計算モデルを提案する。
我々の理論的アプローチは、これらの基本関数は、計算を行うことができる情報空間を確立し、調整するのに十分であり、推論や振舞いに使える信号勾配を生成することを提案する。
これをテストするために用いられる計算方法は、連続的に評価されたセル状態を持つ構造的動的セルオートマトンであり、グラフエッジの生成と変調に完全に埋め込まれたメモリ関数を持つ無向グラフを伝播する一連の再帰的なステップである。
実験結果から,単一トレーニング実行後の報酬状態の再発見に最適に近い選択が可能であること,複雑なペナルティ設定を回避すること,信号変調とネットワーク可塑性がスパース報酬環境における探索行動を生成すること,モデルがコンテキスト依存のメモリ表現を生成すること,および,フレキシブルメモリとコンテクストメモリ表現を組み合わせた単一パストレーニング要件の最小化により,高い計算効率を示すこと,などが示唆された。
関連論文リスト
- Evolvable Psychology Informed Neural Network for Memory Behavior Modeling [2.5258264040936305]
本稿では,PsyINNというメモリ挙動モデリングのためのニューラルネットワークの理論を提案する。
ニューラルネットワークとスパース回帰の微分を組み合わせたフレームワークを構築し、共同最適化を実現する。
4つの大規模実世界のメモリ挙動データセットにおいて,提案手法は予測精度において最先端の手法を超越する。
論文 参考訳(メタデータ) (2024-08-23T01:35:32Z) - Demolition and Reinforcement of Memories in Spin-Glass-like Neural
Networks [0.0]
この論文の目的は、連想記憶モデルと生成モデルの両方において、アンラーニングの有効性を理解することである。
構造化データの選択により、連想記憶モデルは、相当量のアトラクションを持つニューラルダイナミクスのアトラクションとしての概念を検索することができる。
Boltzmann Machinesの新しい正規化手法が提案され、データセットから隠れ確率分布を学習する以前に開発された手法より優れていることが証明された。
論文 参考訳(メタデータ) (2024-03-04T23:12:42Z) - Benchmarking Hebbian learning rules for associative memory [0.0]
連想記憶は認知と計算の脳科学における重要な概念である。
ストレージ容量とプロトタイプ抽出に関する6つの異なる学習ルールをベンチマークする。
論文 参考訳(メタデータ) (2023-12-30T21:49:47Z) - Sequential Memory with Temporal Predictive Coding [6.228559238589584]
時空間予測符号化 (tPC) という, PC を用いた時空間メモリモデルを提案する。
我々のtPCモデルは、生物学的に妥当なニューラル実装を用いて、シーケンシャルな入力を正確に記憶し、取得できることを示します。
論文 参考訳(メタデータ) (2023-05-19T20:03:31Z) - Mapping and Validating a Point Neuron Model on Intel's Neuromorphic
Hardware Loihi [77.34726150561087]
インテルの第5世代ニューロモルフィックチップ「Loihi」の可能性について検討する。
Loihiは、脳内のニューロンをエミュレートするスパイキングニューラルネットワーク(SNN)という新しいアイデアに基づいている。
Loihiは従来のシミュレーションを非常に効率的に再現し、ネットワークが大きくなるにつれて、時間とエネルギーの両方のパフォーマンスにおいて顕著にスケールする。
論文 参考訳(メタデータ) (2021-09-22T16:52:51Z) - Reservoir Memory Machines as Neural Computers [70.5993855765376]
微分可能なニューラルネットワークは、干渉することなく明示的なメモリで人工ニューラルネットワークを拡張する。
我々は、非常に効率的に訓練できるモデルを用いて、微分可能なニューラルネットワークの計算能力を実現する。
論文 参考訳(メタデータ) (2020-09-14T12:01:30Z) - OccamNet: A Fast Neural Model for Symbolic Regression at Scale [11.463756755780583]
OccamNetは、データに適合する解釈可能でコンパクトでスパースなシンボルを見つけるニューラルネットワークモデルである。
本モデルでは,効率的なサンプリングと関数評価を行い,関数上の確率分布を定義する。
解析的および非解析的関数、暗黙的関数、単純な画像分類など、様々な問題に対する記号的適合を識別することができる。
論文 参考訳(メタデータ) (2020-07-16T21:14:45Z) - Incremental Training of a Recurrent Neural Network Exploiting a
Multi-Scale Dynamic Memory [79.42778415729475]
本稿では,マルチスケール学習を対象とする,漸進的に訓練された再帰的アーキテクチャを提案する。
隠れた状態を異なるモジュールに分割することで、シンプルなRNNのアーキテクチャを拡張する方法を示す。
新しいモジュールがモデルに反復的に追加され、徐々に長い依存関係を学習するトレーニングアルゴリズムについて議論する。
論文 参考訳(メタデータ) (2020-06-29T08:35:49Z) - Automatic Recall Machines: Internal Replay, Continual Learning and the
Brain [104.38824285741248]
ニューラルネットワークのリプレイには、記憶されたサンプルを使ってシーケンシャルなデータのトレーニングが含まれる。
本研究では,これらの補助サンプルをフライ時に生成する手法を提案する。
代わりに、評価されたモデル自体内の学習したサンプルの暗黙の記憶が利用されます。
論文 参考訳(メタデータ) (2020-06-22T15:07:06Z) - A Trainable Optimal Transport Embedding for Feature Aggregation and its
Relationship to Attention [96.77554122595578]
固定サイズのパラメータ化表現を導入し、与えられた入力セットから、そのセットとトレーニング可能な参照の間の最適な輸送計画に従って要素を埋め込み、集約する。
我々のアプローチは大規模なデータセットにスケールし、参照のエンドツーエンドのトレーニングを可能にすると同時に、計算コストの少ない単純な教師なし学習メカニズムも提供する。
論文 参考訳(メタデータ) (2020-06-22T08:35:58Z) - One-step regression and classification with crosspoint resistive memory
arrays [62.997667081978825]
高速で低エネルギーのコンピュータは、エッジでリアルタイム人工知能を実現するために要求されている。
ワンステップ学習は、ボストンの住宅のコスト予測と、MNIST桁認識のための2層ニューラルネットワークのトレーニングによって支援される。
結果は、クロスポイントアレイ内の物理計算、並列計算、アナログ計算のおかげで、1つの計算ステップで得られる。
論文 参考訳(メタデータ) (2020-05-05T08:00:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。