論文の概要: Parallelizable Neural Turing Machines
- arxiv url: http://arxiv.org/abs/2602.18508v1
- Date: Wed, 18 Feb 2026 17:43:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.115358
- Title: Parallelizable Neural Turing Machines
- Title(参考訳): 並列化可能なニューラルチューリングマシン
- Authors: Gabriel Faria, Arnaldo Candido Junior,
- Abstract要約: 我々は、P-NTMと呼ばれる並列化可能なニューラルチューリングマシン(NTM)を導入し、元のアーキテクチャのコア操作を再設計し、効率的なスキャンベースの並列実行を実現する。
提案手法は, 自己回帰復号法により解いた状態追跡, 暗記, 基本演算を含むアルゴリズム上の問題を, 合成ベンチマークで評価する。
提案手法は, 単純化されているにもかかわらず, 元のモデルに匹敵する長さ一般化性能を達成し, 未確認列長を含む全ての問題を, 完全精度で解き明かした。
- 参考スコア(独自算出の注目度): 0.6495844882222114
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a parallelizable simplification of Neural Turing Machine (NTM), referred to as P-NTM, which redesigns the core operations of the original architecture to enable efficient scan-based parallel execution. We evaluate the proposed architecture on a synthetic benchmark of algorithmic problems involving state tracking, memorization, and basic arithmetic, solved via autoregressive decoding. We compare it against a revisited stable implementation of the standard NTM, as well as conventional recurrent and attention-based architectures. Results show that, despite its simplifications, the proposed model attains length generalization performance comparable to the original, learning to solve all problems, including unseen sequence lengths, with perfect accuracy. It also improves training efficiency, with parallel execution of P-NTM being up to an order of magnitude faster than the standard NTM. Ultimately, this work contributes toward the development of efficient neural architectures capable of expressing a broad class of algorithms.
- Abstract(参考訳): 我々は、P-NTMと呼ばれる並列化可能なニューラルチューリングマシン(NTM)を導入し、元のアーキテクチャのコア操作を再設計し、効率的なスキャンベースの並列実行を実現する。
提案手法は, 自己回帰復号法により解いた状態追跡, 暗記, 基本演算を含むアルゴリズム上の問題を, 合成ベンチマークで評価する。
従来の再帰型および注意型アーキテクチャと同様に、標準NTMの再検討された安定した実装と比較する。
提案手法は, 単純化されているにもかかわらず, 元のモデルに匹敵する長さ一般化性能を達成し, 未確認列長を含む全ての問題を, 完全精度で解き明かした。
トレーニング効率も向上し、P-NTMの並列実行は標準のNTMよりも桁違いに高速になる。
最終的に、この研究は、幅広い種類のアルゴリズムを表現できる効率的なニューラルネットワークの開発に寄与する。
関連論文リスト
- PRISM: Parallel Residual Iterative Sequence Model [52.26239951489612]
我々はこの緊張を解決するためにPRISM(Parallel Residual Iterative Sequence Model)を提案する。
PRISMは、パラレル化可能な形で多段階精製の重要な構造特性を捉える、ソルバに着想を得た帰納バイアスを導入している。
この定式化が Rank-$L$ の蓄積を達成することを証明し、更新多様体を単一ステップの Rank-$1$ ボトルネックを超えて構造的に拡張する。
論文 参考訳(メタデータ) (2026-02-11T12:39:41Z) - Neural Ising Machines via Unrolling and Zeroth-Order Training [3.5808917363708743]
本稿では,NP-hard Ising と Max-Cut の最適化のために,反復力学系の更新規則を学習するデータ駆動型アルゴリズムを提案する。
我々はこのアプローチを、長いニューラルネットワークパラメータ化Issing Machine(NPIM)と呼ぶ。
論文 参考訳(メタデータ) (2026-01-30T20:51:51Z) - TIDE: Tuning-Integrated Dynamic Evolution for LLM-Based Automated Heuristic Design [7.264986493460248]
TIDEはTuning-Integrated Dynamic Evolutionフレームワークで、パラメータ最適化から構造的推論を分離するように設計されている。
9つの最適化問題に対する実験により、TIDEは最先端のチューニング方法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2026-01-29T04:00:02Z) - Unlocking Symbol-Level Precoding Efficiency Through Tensor Equivariant Neural Network [84.22115118596741]
シンボルレベルのプリコーディングにおいて,推論の複雑さの低いエンドツーエンドディープラーニング(DL)フレームワークを提案する。
提案手法は,従来の手法よりも約80倍の高速化を実現しつつ,SLPの大幅な性能向上を達成できることを示す。
論文 参考訳(メタデータ) (2025-10-02T15:15:50Z) - Sequential-Parallel Duality in Prefix Scannable Models [68.39855814099997]
近年では Gated Linear Attention (GLA) や Mamba など様々なモデルが開発されている。
ニアコンスタント時間並列評価と線形時間、定数空間シーケンシャル推論をサポートするニューラルネットワークモデルの全クラスを特徴付けることができるだろうか?
論文 参考訳(メタデータ) (2025-06-12T17:32:02Z) - MesaNet: Sequence Modeling by Locally Optimal Test-Time Training [67.45211108321203]
我々は,最近提案されたMesa層の数値的に安定かつチャンクワイズ可能な並列化版を導入する。
テストタイムの最適トレーニングにより、従来のRNNよりも言語モデリングの難易度が低く、ダウンストリームベンチマークのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2025-06-05T16:50:23Z) - OptEx: Expediting First-Order Optimization with Approximately Parallelized Iterations [12.696136981847438]
ほぼ並列化されたイテレーション (OptEx) で高速化された一階最適化を導入する。
OptExは、並列コンピューティングを活用して、その反復的ボトルネックを軽減することで、FOOの効率を高める最初のフレームワークである。
我々は、カーネル化された勾配推定の信頼性とSGDベースのOpsExの複雑さを理論的に保証する。
論文 参考訳(メタデータ) (2024-02-18T02:19:02Z) - RWKV: Reinventing RNNs for the Transformer Era [54.716108899349614]
本稿では,変換器の効率的な並列化学習とRNNの効率的な推論を組み合わせた新しいモデルアーキテクチャを提案する。
モデルを最大14億のパラメータにスケールし、トレーニングされたRNNの中では最大で、同じサイズのTransformerと同等のRWKVのパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2023-05-22T13:57:41Z) - Deep unfolding of the weighted MMSE beamforming algorithm [9.518010235273783]
MISOダウンリンクチャネルに対するWMMSEアルゴリズムに対する深部展開の新たな適用法を提案する。
深層展開は、自然に専門家の知識を取り入れており、即時かつしっかりとしたアーキテクチャ選択の利点、トレーニング可能なパラメータの少ないこと、説明可能性の向上がある。
シミュレーションにより、ほとんどの設定において、展開されたWMMSEは、一定回数の反復に対して、WMMSEよりも優れているか、等しく動作することを示す。
論文 参考訳(メタデータ) (2020-06-15T14:51:20Z) - Iterative Algorithm Induced Deep-Unfolding Neural Networks: Precoding
Design for Multiuser MIMO Systems [59.804810122136345]
本稿では,AIIDNN(ディープ・アンフォールディング・ニューラルネット)を一般化した,ディープ・アンフォールディングのためのフレームワークを提案する。
古典的重み付き最小二乗誤差(WMMSE)反復アルゴリズムの構造に基づく効率的なIAIDNNを提案する。
提案したIAIDNNは,計算複雑性を低減した反復WMMSEアルゴリズムの性能を効率よく向上することを示す。
論文 参考訳(メタデータ) (2020-06-15T02:57:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。