論文の概要: Reservoir memory machines
- arxiv url: http://arxiv.org/abs/2003.04793v1
- Date: Wed, 12 Feb 2020 01:45:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-01 19:28:50.332119
- Title: Reservoir memory machines
- Title(参考訳): 貯水池メモリマシン
- Authors: Benjamin Paassen and Alexander Schulz
- Abstract要約: 本稿では,ニューラルチューリングマシンのベンチマークテストのいくつかを解くことができる貯水池メモリマシンを提案する。
我々のモデルは、外部メモリによるエコー状態ネットワークの拡張と見なすことができ、干渉することなく任意の長さの記憶が可能となる。
- 参考スコア(独自算出の注目度): 79.79659145328856
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, Neural Turing Machines have gathered attention by joining
the flexibility of neural networks with the computational capabilities of
Turing machines. However, Neural Turing Machines are notoriously hard to train,
which limits their applicability. We propose reservoir memory machines, which
are still able to solve some of the benchmark tests for Neural Turing Machines,
but are much faster to train, requiring only an alignment algorithm and linear
regression. Our model can also be seen as an extension of echo state networks
with an external memory, enabling arbitrarily long storage without
interference.
- Abstract(参考訳): 近年、ニューラルネットワークの柔軟性とチューリングマシンの計算能力とを結合することで、ニューラルチューリングマシンが注目を集めている。
しかし、ニューラルチューリングマシンはトレーニングが難しいことで知られており、適用性が制限されている。
ニューラルネットワークチューリングマシンのベンチマークテストのいくつかは依然として解決できるが、学習にはるかに高速であり、アライメントアルゴリズムと線形回帰のみを必要とするリザーバメモリマシンを提案する。
我々のモデルは、外部メモリによるエコー状態ネットワークの拡張と見なすことができ、干渉することなく任意の長さの記憶が可能となる。
関連論文リスト
- Token Turing Machines [53.22971546637947]
Token Turing Machines (TTM) はシーケンシャルな自己回帰型トランスフォーマーモデルである。
我々のモデルは、セミナルなニューラルチューリングマシンにインスパイアされ、以前の履歴を要約するトークンの集合からなる外部メモリを持つ。
論文 参考訳(メタデータ) (2022-11-16T18:59:18Z) - Reservoir Stack Machines [77.12475691708838]
メモリ拡張ニューラルネットワークは、情報ストレージを必要とするタスクをサポートするために、明示的なメモリを備えたリカレントニューラルネットワークを備える。
本研究では,全ての決定論的文脈自由言語を確実に認識できるモデルである貯水池スタックマシンを導入する。
以上の結果から, 貯水池スタックマシンは, 訓練データよりも長い試験シーケンスでもゼロ誤差を達成できることがわかった。
論文 参考訳(メタデータ) (2021-05-04T16:50:40Z) - Neurocoder: Learning General-Purpose Computation Using Stored Neural
Programs [64.56890245622822]
ニューロコーダ(Neurocoder)は、汎用計算機の全く新しいクラスである。
共有可能なモジュール型プログラムのセットから関連するプログラムを構成することで、データ応答性のある方法で“コード”を行う。
モジュールプログラムを学習し、パターンシフトを厳しく処理し、新しいプログラムが学習されると、古いプログラムを記憶する新しい能力を示す。
論文 参考訳(メタデータ) (2020-09-24T01:39:16Z) - Reservoir Memory Machines as Neural Computers [70.5993855765376]
微分可能なニューラルネットワークは、干渉することなく明示的なメモリで人工ニューラルネットワークを拡張する。
我々は、非常に効率的に訓練できるモデルを用いて、微分可能なニューラルネットワークの計算能力を実現する。
論文 参考訳(メタデータ) (2020-09-14T12:01:30Z) - A provably stable neural network Turing Machine [13.615420026818038]
我々は、スタックプッシュとポップ操作を近似する微分可能なパラメタライズドスタック演算子を含む、ニューラルスタックアーキテクチャを導入する。
ニューラルスタックとリカレントニューラルネットワークを用いて、ニューラルネットワークPushdown Automaton(nnPDA)を導入し、有限有界ニューロンと時間を持つnnPDAが任意のPDAをシミュレートできることを証明する。
我々は,有界ニューロンを用いた微分可能な nnTM がチューリングマシン(TM)をリアルタイムにシミュレートできることを証明した。
論文 参考訳(メタデータ) (2020-06-05T19:45:49Z) - One-step regression and classification with crosspoint resistive memory
arrays [62.997667081978825]
高速で低エネルギーのコンピュータは、エッジでリアルタイム人工知能を実現するために要求されている。
ワンステップ学習は、ボストンの住宅のコスト予測と、MNIST桁認識のための2層ニューラルネットワークのトレーニングによって支援される。
結果は、クロスポイントアレイ内の物理計算、並列計算、アナログ計算のおかげで、1つの計算ステップで得られる。
論文 参考訳(メタデータ) (2020-05-05T08:00:07Z) - On the computational power and complexity of Spiking Neural Networks [0.0]
本研究では, スパイクニューラルネットワークを機械モデルとして導入し, 親しみやすいチューリングマシンとは対照的に, 情報と操作を機械内に共同配置する。
正規問題を導入し、複雑性クラスの階層を定義し、いくつかの最初の完全性結果を提供する。
論文 参考訳(メタデータ) (2020-01-23T10:40:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。