論文の概要: Autonomous Learning with High-Dimensional Computing Architecture Similar to von Neumann's
- arxiv url: http://arxiv.org/abs/2503.23608v1
- Date: Sun, 30 Mar 2025 22:20:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-01 19:35:57.204777
- Title: Autonomous Learning with High-Dimensional Computing Architecture Similar to von Neumann's
- Title(参考訳): von Neumann氏のような高次元コンピューティングアーキテクチャによる自律学習
- Authors: Pentti Kanerva,
- Abstract要約: 我々は高次元ベクトルによる計算による人間と動物の学習をモデル化する(例:H = 10,000)。
このアーキテクチャは、数を持つ伝統的な(フォン・ノイマン)計算に似ているが、命令はベクトルを参照し、重ね合わせでそれらを操作する。
データから学習するモデルの能力は、深層学習を連想させるが、生物学に近いアーキテクチャを持つ。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We model human and animal learning by computing with high-dimensional vectors (H = 10,000 for example). The architecture resembles traditional (von Neumann) computing with numbers, but the instructions refer to vectors and operate on them in superposition. The architecture includes a high-capacity memory for vectors, analogue of the random-access memory (RAM) for numbers. The model's ability to learn from data reminds us of deep learning, but with an architecture closer to biology. The architecture agrees with an idea from psychology that human memory and learning involve a short-term working memory and a long-term data store. Neuroscience provides us with a model of the long-term memory, namely, the cortex of the cerebellum. With roots in psychology, biology, and traditional computing, a theory of computing with vectors can help us understand how brains compute. Application to learning by robots seems inevitable, but there is likely to be more, including language. Ultimately we want to compute with no more material and energy than used by brains. To that end, we need a mathematical theory that agrees with psychology and biology, and is suitable for nanotechnology. We also need to exercise the theory in large-scale experiments. Computing with vectors is described here in terms familiar to us from traditional computing with numbers.
- Abstract(参考訳): 我々は高次元ベクトルを用いた計算による人間と動物の学習をモデル化する(例:H = 10,000)。
このアーキテクチャは、数を持つ伝統的な(フォン・ノイマン)計算に似ているが、命令はベクトルを参照し、重ね合わせでそれらを操作する。
このアーキテクチャは、ベクトル用の高容量メモリ、数値用のランダムアクセスメモリ(RAM)のアナログを含む。
データから学習するモデルの能力は、深層学習を連想させるが、生物学に近いアーキテクチャを持つ。
このアーキテクチャは、人間の記憶と学習が短期的なワーキングメモリと長期的なデータストアを含んでいるという心理学的な考え方と一致している。
神経科学は、長期記憶、すなわち小脳皮質のモデルを提供する。
心理学、生物学、そして伝統的なコンピューティングのルーツによって、ベクトルによる計算の理論は、脳がどのように計算するかを理解するのに役立つ。
ロボットによる学習の応用は避けられないように思えるが、言語を含め、もっと多くのものが存在する可能性が高い。
最終的に私たちは、脳で使われるもの以上の物質とエネルギーで計算したいのです。
そのために、心理学や生物学と一致する数学的理論が必要であり、ナノテクノロジーに適している。
我々はまた、この理論を大規模な実験で実行する必要がある。
ここではベクトルの計算について、従来の数値の計算に慣れ親しんだ言葉で説明する。
関連論文リスト
- Hebbian Learning based Orthogonal Projection for Continual Learning of
Spiking Neural Networks [74.3099028063756]
我々は,側方接続とヘビアン学習に基づくニューラル操作を用いた新しい手法を開発した。
我々は,反復する側方接続におけるヘビアン学習と反ヘビアン学習が,神経活動の主部分空間を効果的に抽出できることを示した。
我々の手法は、ほとんど忘れることなくニューラルネットワークをスパイクするために一貫して解決する。
論文 参考訳(メタデータ) (2024-02-19T09:29:37Z) - AI for Mathematics: A Cognitive Science Perspective [86.02346372284292]
数学は人間によって開発された最も強力な概念体系の1つである。
AIの急速な進歩、特に大規模言語モデル(LLM)の進歩による推進により、そのようなシステム構築に対する新たな、広範な関心が生まれている。
論文 参考訳(メタデータ) (2023-10-19T02:00:31Z) - Neuromorphic Artificial Intelligence Systems [58.1806704582023]
フォン・ノイマンアーキテクチャと古典的ニューラルネットワークに基づく現代のAIシステムは、脳と比較して多くの基本的な制限がある。
この記事では、そのような制限と、それらが緩和される方法について論じる。
これは、これらの制限が克服されている現在利用可能なニューロモーフィックAIプロジェクトの概要を示す。
論文 参考訳(メタデータ) (2022-05-25T20:16:05Z) - A Robust Learning Rule for Soft-Bounded Memristive Synapses Competitive
with Supervised Learning in Standard Spiking Neural Networks [0.0]
理論神経科学における見解は、脳を機能計算装置と見なしている。
関数を近似できることは、将来の脳研究のための基礎となる公理である。
本研究では,非自明な多次元関数の学習に,ニオブをドープしたチタン酸ストロンチウムの旋律的シナプスを制御した新しい教師付き学習アルゴリズムを適用する。
論文 参考訳(メタデータ) (2022-04-12T10:21:22Z) - CogNGen: Constructing the Kernel of a Hyperdimensional Predictive
Processing Cognitive Architecture [79.07468367923619]
神経生物学的に妥当な2つの計算モデルを組み合わせた新しい認知アーキテクチャを提案する。
我々は、現代の機械学習技術の力を持つ認知アーキテクチャを開発することを目指している。
論文 参考訳(メタデータ) (2022-03-31T04:44:28Z) - Mapping and Validating a Point Neuron Model on Intel's Neuromorphic
Hardware Loihi [77.34726150561087]
インテルの第5世代ニューロモルフィックチップ「Loihi」の可能性について検討する。
Loihiは、脳内のニューロンをエミュレートするスパイキングニューラルネットワーク(SNN)という新しいアイデアに基づいている。
Loihiは従来のシミュレーションを非常に効率的に再現し、ネットワークが大きくなるにつれて、時間とエネルギーの両方のパフォーマンスにおいて顕著にスケールする。
論文 参考訳(メタデータ) (2021-09-22T16:52:51Z) - Memory and attention in deep learning [19.70919701635945]
マシンのメモリ構成は避けられない。
ディープラーニングにおけるメモリモデリングの最近の進歩は、外部メモリ構築を中心に展開されている。
この論文の目的は、深層学習における記憶と注意に対する理解を深めることである。
論文 参考訳(メタデータ) (2021-07-03T09:21:13Z) - Neuromorphic Computing is Turing-Complete [0.0]
ニューロモルフィックコンピューティング(Neuromorphic Computing)は、人間の脳をエミュレートして計算を行う非ヴォンノイマン計算パラダイムである。
ニューロモルフィックシステムはエネルギー効率が非常に高く、cpuやgpuの数千倍の消費電力で知られている。
我々は、すべてのmu再帰関数とすべてのmu再帰演算子を計算するためのニューロモルフィック回路を考案する。
論文 参考訳(メタデータ) (2021-04-28T19:25:01Z) - Neurocoder: Learning General-Purpose Computation Using Stored Neural
Programs [64.56890245622822]
ニューロコーダ(Neurocoder)は、汎用計算機の全く新しいクラスである。
共有可能なモジュール型プログラムのセットから関連するプログラムを構成することで、データ応答性のある方法で“コード”を行う。
モジュールプログラムを学習し、パターンシフトを厳しく処理し、新しいプログラムが学習されると、古いプログラムを記憶する新しい能力を示す。
論文 参考訳(メタデータ) (2020-09-24T01:39:16Z) - On the computational power and complexity of Spiking Neural Networks [0.0]
本研究では, スパイクニューラルネットワークを機械モデルとして導入し, 親しみやすいチューリングマシンとは対照的に, 情報と操作を機械内に共同配置する。
正規問題を導入し、複雑性クラスの階層を定義し、いくつかの最初の完全性結果を提供する。
論文 参考訳(メタデータ) (2020-01-23T10:40:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。