論文の概要: Compiling Turing Machines into Storage Modification Machines
- arxiv url: http://arxiv.org/abs/2110.01415v1
- Date: Tue, 28 Sep 2021 10:38:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-10 13:13:26.121826
- Title: Compiling Turing Machines into Storage Modification Machines
- Title(参考訳): チューリングマシンをストレージ改造マシンにコンパイルする
- Authors: J.-M. Chauvet
- Abstract要約: Sch"onhage's Storage Modification Machines (SMM) がチューリングマシン (TM) をシミュレートできることはよく知られている。
本稿では,TMからSMMへの単純な変換を提案し,単純なTM-to-SMMコンパイラの基盤を設定する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: It is well known that Sch\"onhage's Storage Modification Machines (SMM) can
simulate Turing Machines (TM) since Sch\"onhage's original proof of the Turing
completeness of the eponymous machines. We propose a simple transformation of
TM into SMM, setting the base for a straightforward TM-to-SMM compiler.
- Abstract(参考訳): Sch\"onhage's Storage Modification Machines (SMM) がチューリングマシン(TM)をシミュレートできることは知られている。
本稿では,TM から SMM への単純な変換を提案し,単純な TM-to-SMM コンパイラの基盤を設定する。
関連論文リスト
- On the Representational Capacity of Recurrent Neural Language Models [61.38536173209874]
計算時間を持つ有理重み付きRLMは、有理重み付き遷移を持つ決定論的確率的チューリングマシン(PTM)をシミュレートできることを示す。
また, 実時間計算の制約下では, 決定論的実時間有理PTMをシミュレートできることを示した。
論文 参考訳(メタデータ) (2023-10-19T17:39:47Z) - Sparse Universal Transformer [64.78045820484299]
Universal Transformer (UT) はTransformerの変種であり、それらの層にまたがるパラメータを共有する。
本稿では,スパース・ミキチャー・オブ・エキスパート(SMoE)と新しいスティック・ブレーキング・ベースの動的停止機構を利用するスパース・ユニバーサル・トランスフォーマー(SUT)を提案する。
論文 参考訳(メタデータ) (2023-10-11T00:38:57Z) - Towards a Self-Replicating Turing Machine [0.0]
我々はフォン・ノイマンの普遍コンストラクタと普遍コーパの部分実装を提供する。
同じ原理を用いてチューリングマシンも構築する。
我々の構成は、望めば突然変異を許容し、簡単な記述言語を提供します。
論文 参考訳(メタデータ) (2023-06-29T11:50:58Z) - Token Turing Machines [53.22971546637947]
Token Turing Machines (TTM) はシーケンシャルな自己回帰型トランスフォーマーモデルである。
我々のモデルは、セミナルなニューラルチューリングマシンにインスパイアされ、以前の履歴を要約するトークンの集合からなる外部メモリを持つ。
論文 参考訳(メタデータ) (2022-11-16T18:59:18Z) - PALT: Parameter-Lite Transfer of Language Models for Knowledge Graph
Completion [108.8941541255567]
本稿では,知識グラフ(KG)完成のための事前学習言語モデル(LM)のパラメータ・ライト変換学習手法を提案する。
全てのLMパラメータを微調整する代わりに、元のLMパラメータを固定しながら、いくつかの新しいパラメータを調整します。
本研究は,マイクロチューニングよりもはるかに少ないパラメータをチューニングすることにより,ほとんどのタスクに非自明に伝達し,従来の最先端手法と競合することを示す。
論文 参考訳(メタデータ) (2022-10-25T02:22:29Z) - Learning Bounded Context-Free-Grammar via LSTM and the
Transformer:Difference and Explanations [51.77000472945441]
Long Short-Term Memory (LSTM) と Transformer は、自然言語処理タスクに使用される2つの一般的なニューラルネットワークアーキテクチャである。
実際には、トランスフォーマーモデルの方がLSTMよりも表現力が高いことがよく見られる。
本研究では,LSTMとTransformerの実践的差異について検討し,その潜在空間分解パターンに基づく説明を提案する。
論文 参考訳(メタデータ) (2021-12-16T19:56:44Z) - Multiway Storage Modification Machines [0.0]
MWSMM(Multiway Storage Modification Machine)の並列バージョンについて述べる。
トロンプ・ヴァン・エムデ・ボアスの代替のアソシエーションストレージ修正マシンと同様に、MWSMMはチューリングマシンが宇宙で認識するものを時間内に認識する。
論文 参考訳(メタデータ) (2021-11-12T15:06:48Z) - Prof. Sch\"onhage's Mysterious Machines [0.0]
ルール110セルオートマトンのうちの1つをシミュレートする単純なSch"onhage Storage Modification Machineを提供する。
これは、シュンハーゲの固有機械のチューリング完全性の証明の代替的な構成を提供する。
論文 参考訳(メタデータ) (2021-08-19T10:32:21Z) - A provably stable neural network Turing Machine [13.615420026818038]
我々は、スタックプッシュとポップ操作を近似する微分可能なパラメタライズドスタック演算子を含む、ニューラルスタックアーキテクチャを導入する。
ニューラルスタックとリカレントニューラルネットワークを用いて、ニューラルネットワークPushdown Automaton(nnPDA)を導入し、有限有界ニューロンと時間を持つnnPDAが任意のPDAをシミュレートできることを証明する。
我々は,有界ニューロンを用いた微分可能な nnTM がチューリングマシン(TM)をリアルタイムにシミュレートできることを証明した。
論文 参考訳(メタデータ) (2020-06-05T19:45:49Z) - Reservoir memory machines [79.79659145328856]
本稿では,ニューラルチューリングマシンのベンチマークテストのいくつかを解くことができる貯水池メモリマシンを提案する。
我々のモデルは、外部メモリによるエコー状態ネットワークの拡張と見なすことができ、干渉することなく任意の長さの記憶が可能となる。
論文 参考訳(メタデータ) (2020-02-12T01:45:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。