論文の概要: A Computational Architecture for Machine Consciousness and Artificial
Superintelligence: Updating Working Memory Iteratively
- arxiv url: http://arxiv.org/abs/2203.17255v1
- Date: Tue, 29 Mar 2022 22:28:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-01 13:50:53.762609
- Title: A Computational Architecture for Machine Consciousness and Artificial
Superintelligence: Updating Working Memory Iteratively
- Title(参考訳): 機械意識と人工超知能のための計算アーキテクチャ--作業記憶の反復更新
- Authors: Jared Edward Reser
- Abstract要約: 本稿では,コンピュータ内でのヒューマンライクな作業記憶と思考プロセスの構築方法について考察する。
ワーキングメモリストアは2つあり、1つは関連大脳皮質における持続的発射に類似しており、もう1つは大脳皮質におけるシナプス増強に類似している。
ストアは、環境刺激または内部処理から生じる新しい表現で常に更新されなければならない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This theoretical article examines how to construct human-like working memory
and thought processes within a computer. There should be two working memory
stores, one analogous to sustained firing in association cortex, and one
analogous to synaptic potentiation in the cerebral cortex. These stores must be
constantly updated with new representations that arise from either
environmental stimulation or internal processing. They should be updated
continuously, and in an iterative fashion, meaning that, in the next state,
some items in the set of coactive items should always be retained. Thus, the
set of concepts coactive in working memory will evolve gradually and
incrementally over time. This makes each state is a revised iteration of the
preceding state and causes successive states to overlap and blend with respect
to the set of representations they contain. As new representations are added
and old ones are subtracted, some remain active for several seconds over the
course of these changes. This persistent activity, similar to that used in
artificial recurrent neural networks, is used to spread activation energy
throughout the global workspace to search for the next associative update. The
result is a chain of associatively linked intermediate states that are capable
of advancing toward a solution or goal. Iterative updating is conceptualized
here as an information processing strategy, a computational and
neurophysiological determinant of the stream of thought, and an algorithm for
designing and programming artificial intelligence.
- Abstract(参考訳): この理論論文は、コンピュータ内で人間のような作業記憶と思考プロセスを構築する方法について検討する。
動作メモリストアは2つあり、1つは結合皮質の持続的な燃焼に類似し、もう1つは大脳皮質のシナプス増強に類似している。
これらのストアは、環境刺激または内部処理から生じる新しい表現で常に更新されなければならない。
継続的に更新され、反復的な方法で、つまり次の状態において、協調アイテムのセット内のいくつかのアイテムは、常に保持されるべきである。
したがって、ワーキングメモリにおける一連の概念は、時間とともに徐々に徐々に進化していく。
これにより、各状態は前状態の修正反復であり、連続状態はそれらが含む表現の集合に関して重複して混在する。
新しい表現が追加され、古い表現が減算されるにつれて、これらの変更の過程で数秒間アクティブなものもある。
この永続的活動は、人工的なリカレントニューラルネットワークで使用されるものと同様、次の連想更新を探すために、グローバルワークスペース全体に活性化エネルギーを拡散するために使用される。
結果として、解または目標に向かって進むことができる結合的に連結された中間状態の連鎖となる。
反復更新は、情報処理戦略、思考の流れの計算と神経生理学的決定式、人工知能の設計とプログラミングのためのアルゴリズムとして概念化されている。
関連論文リスト
- Hierarchical Working Memory and a New Magic Number [1.024113475677323]
本稿では,作業記憶のシナプス理論の枠組み内でチャンキングを行うための繰り返しニューラルネットワークモデルを提案する。
我々の研究は、認知に不可欠な脳内の情報のオンザフライ組織を理解するための、概念的で分析的な枠組みを提供する。
論文 参考訳(メタデータ) (2024-08-14T16:03:47Z) - Resistive Memory-based Neural Differential Equation Solver for Score-based Diffusion Model [55.116403765330084]
スコアベースの拡散のような現在のAIGC法は、迅速性と効率性の点で依然として不足している。
スコアベース拡散のための時間連続型およびアナログ型インメモリ型ニューラル微分方程式解法を提案する。
我々は180nmの抵抗型メモリインメモリ・コンピューティング・マクロを用いて,我々の解を実験的に検証した。
論文 参考訳(メタデータ) (2024-04-08T16:34:35Z) - A Framework for Inference Inspired by Human Memory Mechanisms [9.408704431898279]
本稿では,知覚,記憶,推論の構成要素からなるPMIフレームワークを提案する。
メモリモジュールは、ワーキングメモリと長期メモリから構成され、後者は、広範囲で複雑なリレーショナル知識と経験を維持するために、高次構造を備えている。
我々は、bAbI-20kやSolt-of-CLEVRデータセットのような質問応答タスクにおいて、一般的なTransformerとCNNモデルを改善するためにPMIを適用します。
論文 参考訳(メタデータ) (2023-10-01T08:12:55Z) - AIGenC: An AI generalisation model via creativity [1.933681537640272]
本稿では,創造性に関する認知理論に触発された計算モデル(AIGenC)を紹介する。
人工エージェントが変換可能な表現を学習、使用、生成するために必要なコンポーネントを配置する。
本稿では, 人工エージェントの配当効率を向上するモデルの有効性について論じる。
論文 参考訳(メタデータ) (2022-05-19T17:43:31Z) - Pin the Memory: Learning to Generalize Semantic Segmentation [68.367763672095]
本稿ではメタラーニングフレームワークに基づくセマンティックセグメンテーションのための新しいメモリ誘導ドメイン一般化手法を提案する。
本手法は,セマンティッククラスの概念的知識を,ドメインを超えて一定であるカテゴリ記憶に抽象化する。
論文 参考訳(メタデータ) (2022-04-07T17:34:01Z) - CogNGen: Constructing the Kernel of a Hyperdimensional Predictive
Processing Cognitive Architecture [79.07468367923619]
神経生物学的に妥当な2つの計算モデルを組み合わせた新しい認知アーキテクチャを提案する。
我々は、現代の機械学習技術の力を持つ認知アーキテクチャを開発することを目指している。
論文 参考訳(メタデータ) (2022-03-31T04:44:28Z) - Artificial Intelligence Software Structured to Simulate Human Working
Memory, Mental Imagery, and Mental Continuity [0.0]
本稿では,人間の作業記憶システムのシミュレーションを目的とした人工知能アーキテクチャを提案する。
大脳皮質の特別なモジュールをエミュレートするために設計された、いくつかの相互接続されたニューラルネットワークが特徴である。
ワーキングメモリに格納されたコンテンツが徐々に進化するにつれて、連続した状態は重なり合い、互いに連続している。
論文 参考訳(メタデータ) (2022-03-29T22:23:36Z) - Temporal Memory Relation Network for Workflow Recognition from Surgical
Video [53.20825496640025]
本研究では, 長期および多スケールの時間パターンを関連づける, エンドツーエンドの時間メモリ関係ネットワーク (TMNet) を提案する。
我々はこのアプローチを2つのベンチマーク手術ビデオデータセットで広範囲に検証した。
論文 参考訳(メタデータ) (2021-03-30T13:20:26Z) - Kanerva++: extending The Kanerva Machine with differentiable, locally
block allocated latent memory [75.65949969000596]
エピソディックメモリとセマンティックメモリは、人間のメモリモデルの重要なコンポーネントです。
我々は、エピソードメモリとセマンティックメモリのギャップを埋める新しい原理ベイズメモリ割り当てスキームを開発しました。
この割り当て方式がメモリ条件画像生成の性能を向上させることを実証する。
論文 参考訳(メタデータ) (2021-02-20T18:40:40Z) - Slow manifolds in recurrent networks encode working memory efficiently
and robustly [0.0]
ワーキングメモリ(working memory)は、潜在情報の保存と操作を短時間で行う認知機能である。
作業メモリのネットワークレベルメカニズムを調べるために,トップダウンモデリング手法を用いる。
論文 参考訳(メタデータ) (2021-01-08T18:47:02Z) - Incremental Training of a Recurrent Neural Network Exploiting a
Multi-Scale Dynamic Memory [79.42778415729475]
本稿では,マルチスケール学習を対象とする,漸進的に訓練された再帰的アーキテクチャを提案する。
隠れた状態を異なるモジュールに分割することで、シンプルなRNNのアーキテクチャを拡張する方法を示す。
新しいモジュールがモデルに反復的に追加され、徐々に長い依存関係を学習するトレーニングアルゴリズムについて議論する。
論文 参考訳(メタデータ) (2020-06-29T08:35:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。