論文の概要: Artificial Intelligence Software Structured to Simulate Human Working
Memory, Mental Imagery, and Mental Continuity
- arxiv url: http://arxiv.org/abs/2204.05138v1
- Date: Tue, 29 Mar 2022 22:23:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-17 08:56:28.917156
- Title: Artificial Intelligence Software Structured to Simulate Human Working
Memory, Mental Imagery, and Mental Continuity
- Title(参考訳): 人間の作業記憶、心的イメージ、精神的連続性をシミュレートする人工知能ソフトウェア
- Authors: Jared Edward Reser
- Abstract要約: 本稿では,人間の作業記憶システムのシミュレーションを目的とした人工知能アーキテクチャを提案する。
大脳皮質の特別なモジュールをエミュレートするために設計された、いくつかの相互接続されたニューラルネットワークが特徴である。
ワーキングメモリに格納されたコンテンツが徐々に進化するにつれて、連続した状態は重なり合い、互いに連続している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: This article presents an artificial intelligence (AI) architecture intended
to simulate the human working memory system as well as the manner in which it
is updated iteratively. It features several interconnected neural networks
designed to emulate the specialized modules of the cerebral cortex. These are
structured hierarchically and integrated into a global workspace. They are
capable of temporarily maintaining high-level patterns akin to the
psychological items maintained in working memory. This maintenance is made
possible by persistent neural activity in the form of two modalities: sustained
neural firing (resulting in a focus of attention) and synaptic potentiation
(resulting in a short-term store). This persistent activity is updated
iteratively resulting in incremental changes to the content of the working
memory system. As the content stored in working memory gradually evolves,
successive states overlap and are continuous with one another. The present
article will explore how this architecture can lead to gradual shift in the
distribution of coactive representations, ultimately leading to mental
continuity between processing states, and thus to human-like cognition.
- Abstract(参考訳): 本稿では,人間の作業記憶システムと,それを反復的に更新する方法をシミュレートする人工知能(AI)アーキテクチャを提案する。
大脳皮質の特別なモジュールをエミュレートするために設計されたいくつかの相互接続ニューラルネットワークを備えている。
これらは階層的に構造化され、グローバルなワークスペースに統合される。
作業記憶に保持されている心理的項目に類似したハイレベルなパターンを一時的に維持することができる。
この維持は、持続的な神経活動によって、持続的な神経活動(注意を向けて)とシナプス増強(短期的な店舗で)の2つのモードで実現される。
この永続的なアクティビティは繰り返し更新され、作業メモリシステムの内容が漸進的に変化する。
ワーキングメモリに格納されたコンテンツが徐々に進化するにつれて、連続した状態は重なり、互いに連続する。
本稿では,このアーキテクチャが協調表現の分布を段階的に変化させ,最終的に処理状態間の精神的な連続性をもたらし,人間のような認知に繋がる方法について考察する。
関連論文リスト
- Hierarchical Working Memory and a New Magic Number [1.024113475677323]
本稿では,作業記憶のシナプス理論の枠組み内でチャンキングを行うための繰り返しニューラルネットワークモデルを提案する。
我々の研究は、認知に不可欠な脳内の情報のオンザフライ組織を理解するための、概念的で分析的な枠組みを提供する。
論文 参考訳(メタデータ) (2024-08-14T16:03:47Z) - Resistive Memory-based Neural Differential Equation Solver for Score-based Diffusion Model [55.116403765330084]
スコアベースの拡散のような現在のAIGC法は、迅速性と効率性の点で依然として不足している。
スコアベース拡散のための時間連続型およびアナログ型インメモリ型ニューラル微分方程式解法を提案する。
我々は180nmの抵抗型メモリインメモリ・コンピューティング・マクロを用いて,我々の解を実験的に検証した。
論文 参考訳(メタデータ) (2024-04-08T16:34:35Z) - CogNGen: Constructing the Kernel of a Hyperdimensional Predictive
Processing Cognitive Architecture [79.07468367923619]
神経生物学的に妥当な2つの計算モデルを組み合わせた新しい認知アーキテクチャを提案する。
我々は、現代の機械学習技術の力を持つ認知アーキテクチャを開発することを目指している。
論文 参考訳(メタデータ) (2022-03-31T04:44:28Z) - A Cognitive Architecture for Machine Consciousness and Artificial Superintelligence: Thought Is Structured by the Iterative Updating of Working Memory [0.0]
本稿では、コンピュータ内での人間的な思考プロセスのシミュレートのための分析フレームワークを提供する。
注意と記憶がどのように構造化され、更新され、思考ストリームへの連想的な追加を探すために利用されるかを記述する。
論文 参考訳(メタデータ) (2022-03-29T22:28:30Z) - Reducing Catastrophic Forgetting in Self Organizing Maps with
Internally-Induced Generative Replay [67.50637511633212]
生涯学習エージェントは、パターン知覚データの無限のストリームから継続的に学習することができる。
適応するエージェントを構築する上での歴史的難しさの1つは、ニューラルネットワークが新しいサンプルから学ぶ際に、以前取得した知識を維持するのに苦労していることである。
この問題は破滅的な忘れ(干渉)と呼ばれ、今日の機械学習の領域では未解決の問題のままである。
論文 参考訳(メタデータ) (2021-12-09T07:11:14Z) - Learning Neuro-Symbolic Relational Transition Models for Bilevel
Planning [61.37385221479233]
本研究では,モデルに基づく強化学習と記号幾何学的ロボット計画の統合のギャップを埋めるための一歩を踏み出した。
NSRTはシンボリックコンポーネントとニューラルコンポーネントの両方を持ち、外ループにおけるシンボリックAI計画がインナーループ内のニューラルモデルによる継続的な計画をガイドするバイレベルプランニングスキームを可能にする。
NSRTは、ほんの数十~数百回のトレーニングの後に学習でき、目標を達成するのに最大60のアクションを必要とする新しいタスクの高速計画に使用される。
論文 参考訳(メタデータ) (2021-05-28T19:37:18Z) - Towards a Predictive Processing Implementation of the Common Model of
Cognition [79.63867412771461]
本稿では,ニューラル生成符号化とホログラフィック連想記憶に基づく認知モデルの実装について述べる。
提案システムは,多様なタスクから継続的に学習し,大規模に人的パフォーマンスをモデル化するエージェントを開発するための基盤となる。
論文 参考訳(メタデータ) (2021-05-15T22:55:23Z) - Self-Constructing Neural Networks Through Random Mutation [0.0]
本稿では,ランダム変異によるニューラルネットワークの学習方法を提案する。
1) 神経アーキテクチャはエージェントの生存中に学習可能であり, 2) 神経アーキテクチャは,初期接続やニューロンを必要とせず,単一のライフタイムで構築可能であり,3) 動的かつ新しいタスクシナリオへの迅速な適応を可能にする。
論文 参考訳(メタデータ) (2021-03-29T15:27:38Z) - Slow manifolds in recurrent networks encode working memory efficiently
and robustly [0.0]
ワーキングメモリ(working memory)は、潜在情報の保存と操作を短時間で行う認知機能である。
作業メモリのネットワークレベルメカニズムを調べるために,トップダウンモデリング手法を用いる。
論文 参考訳(メタデータ) (2021-01-08T18:47:02Z) - A Neural Dynamic Model based on Activation Diffusion and a
Micro-Explanation for Cognitive Operations [4.416484585765028]
記憶の神経機構は、人工知能における表現の問題と非常に密接な関係を持っている。
脳内のニューロンのネットワークとその情報処理のシミュレーションを行う計算モデルが提案された。
論文 参考訳(メタデータ) (2020-11-27T01:34:08Z) - Incremental Training of a Recurrent Neural Network Exploiting a
Multi-Scale Dynamic Memory [79.42778415729475]
本稿では,マルチスケール学習を対象とする,漸進的に訓練された再帰的アーキテクチャを提案する。
隠れた状態を異なるモジュールに分割することで、シンプルなRNNのアーキテクチャを拡張する方法を示す。
新しいモジュールがモデルに反復的に追加され、徐々に長い依存関係を学習するトレーニングアルゴリズムについて議論する。
論文 参考訳(メタデータ) (2020-06-29T08:35:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。