論文の概要: Hey Pentti, We Did (More of) It!: A Vector-Symbolic Lisp With Residue Arithmetic
- arxiv url: http://arxiv.org/abs/2511.08767v1
- Date: Thu, 13 Nov 2025 01:06:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-13 22:34:54.223113
- Title: Hey Pentti, We Did (More of) It!: A Vector-Symbolic Lisp With Residue Arithmetic
- Title(参考訳): Hey Pentti, We Did (More of) It!: Vector-Symbolic Lisp with Residue Arithmetic
- Authors: Connor Hanley, Eilene Tomkins-Flanaganm, Mary Alexandria Kelly,
- Abstract要約: 我々は、Residue Hyperdimensional Computing (RHC) を用いた算術演算のためのプリミティブ付きLisp 1.5のベクトル・シンボリックアーキテクチャ(VSA)符号化を拡張した。
機械学習タスクにおけるVSAエンコーディングの潜在的な応用と、その表現の構造に敏感な動作を持つニューラルネットワークを符号化することの重要性について論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Using Frequency-domain Holographic Reduced Representations (FHRRs), we extend a Vector-Symbolic Architecture (VSA) encoding of Lisp 1.5 with primitives for arithmetic operations using Residue Hyperdimensional Computing (RHC). Encoding a Turing-complete syntax over a high-dimensional vector space increases the expressivity of neural network states, enabling network states to contain arbitrarily structured representations that are inherently interpretable. We discuss the potential applications of the VSA encoding in machine learning tasks, as well as the importance of encoding structured representations and designing neural networks whose behavior is sensitive to the structure of their representations in virtue of attaining more general intelligent agents than exist at present.
- Abstract(参考訳): 本稿では、周波数領域ホログラフィ還元表現(FHRR)を用いて、LISP 1.5のベクトルシンボリックアーキテクチャ(VSA)を、Residue Hyperdimensional Computing(RHC)を用いた算術演算のためのプリミティブで拡張する。
高次元ベクトル空間上でチューリング完全構文を符号化すると、ニューラルネットワーク状態の表現性が向上し、ネットワーク状態は本質的に解釈可能な任意の構造化された表現を含むことができる。
機械学習タスクにおけるVSAエンコーディングの潜在的な応用について論じるとともに、構造化表現の符号化とニューラルネットワークの設計の重要性についても論じる。
関連論文リスト
- The Origins of Representation Manifolds in Large Language Models [52.68554895844062]
表現空間におけるコサイン類似性は、最短のオンマンフォールド経路を通して特徴の内在幾何学を符号化することができることを示す。
理論の臨界仮定と予測は、大きな言語モデルのテキスト埋め込みとトークンアクティベーションに基づいて検証される。
論文 参考訳(メタデータ) (2025-05-23T13:31:22Z) - Compositional Generalization Across Distributional Shifts with Sparse Tree Operations [77.5742801509364]
我々は、微分可能木機械と呼ばれる統合されたニューロシンボリックアーキテクチャを導入する。
シンボル構造の疎ベクトル表現を用いることで,モデルの効率を大幅に向上する。
より一般的なseq2seq問題に制限されたtree2tree問題以外の適用を可能にする。
論文 参考訳(メタデータ) (2024-12-18T17:20:19Z) - Training Neural Networks as Recognizers of Formal Languages [87.06906286950438]
ニューラルネットワークを文字列のバイナリ分類器として直接訓練し評価する。
3つのニューラルアーキテクチャに対して、チョムスキー階層の様々な言語について結果を提供する。
我々の貢献は、将来の研究において、言語認識の主張を理論的に健全に検証するのに役立つだろう。
論文 参考訳(メタデータ) (2024-11-11T16:33:25Z) - Hyperdimensional Computing with Spiking-Phasor Neurons [0.9594432031144714]
シンボリックベクトルアーキテクチャ(VSAs)は、構成的推論を表現するための強力なフレームワークである。
スパイキングニューロンの基板上でVSAアルゴリズムを実行し、ニューロモルフィックハードウェア上で効率的に動作させることができる。
論文 参考訳(メタデータ) (2023-02-28T20:09:12Z) - Join-Chain Network: A Logical Reasoning View of the Multi-head Attention
in Transformer [59.73454783958702]
本稿では,多くの結合演算子を連結して出力論理式をモデル化するシンボリック推論アーキテクチャを提案する。
特に,このような結合鎖のアンサンブルが'ツリー構造'の1次論理式であるFOETの広い部分集合を表現できることを実証する。
変圧器における多頭部自己保持モジュールは,確率的述語空間における結合作用素の結合境界を実装する特別なニューラル演算子として理解することができる。
論文 参考訳(メタデータ) (2022-10-06T07:39:58Z) - Residual and Attentional Architectures for Vector-Symbols [0.0]
ベクトルシンボリックアーキテクチャ(VSAs)は、非常に柔軟でユニークな利点を持つ計算方法を提供する。
本研究では,FHRR (Fourier Holographic Reduced Representation) VSAのフレームワーク内で提供される操作の効率性と深層ネットワークのパワーを組み合わせて,新たなVSAベースの残差と注意に基づくニューラルネットワークアーキテクチャを構築する。
このことは、VSAの新たな応用と、ニューロモルフィックハードウェアに最先端のニューラルモデルを実装するための潜在的なパスを示す。
論文 参考訳(メタデータ) (2022-07-18T21:38:43Z) - A Neuro-vector-symbolic Architecture for Solving Raven's Progressive
Matrices [15.686742809374024]
ニューロベクター・シンボリック・アーキテクチャ(NVSA)は、ディープニューラルネットワークとシンボリック論理的推論の最高の組み合わせとして提案されている。
我々は,NVSAがRAVENの平均精度97.7%,I-RAVENデータセット98.8%を新たに達成し,CPU上での論理的推論よりも2桁高速な実行を実現していることを示す。
論文 参考訳(メタデータ) (2022-03-09T08:29:21Z) - HyperSeed: Unsupervised Learning with Vector Symbolic Architectures [5.258404928739212]
本稿では,Hyperseedという新しい教師なし機械学習手法を提案する。
VSA(Vector Symbolic Architectures)を活用して、問題のないデータのトポロジ保存機能マップを高速に学習する。
ハイパーシードアルゴリズムの2つの特徴的特徴は,1)少数の入力データサンプルから学習すること,2)1つのベクトル演算に基づく学習規則である。
論文 参考訳(メタデータ) (2021-10-15T20:05:43Z) - High-performance symbolic-numerics via multiple dispatch [52.77024349608834]
Symbolics.jlは拡張可能なシンボルシステムで、動的多重ディスパッチを使用してドメインのニーズに応じて振る舞いを変更する。
実装に依存しないアクションでジェネリックapiを形式化することで、システムに最適化されたデータ構造を遡及的に追加できることを示します。
従来の用語書き換えシンプリファイアと電子グラフベースの用語書き換えシンプリファイアをスワップする機能を実証する。
論文 参考訳(メタデータ) (2021-05-09T14:22:43Z) - Resonator networks for factoring distributed representations of data
structures [3.46969645559477]
分散表現空間上の代数を構成する高次元ベクトルと演算を組み合わせることにより、データ構造がどのように符号化されるかを示す。
提案アルゴリズムは共振器ネットワークと呼ばれ、VSA乗算演算とパターン補完をインターリーブする新しいタイプのリカレントニューラルネットワークである。
共振器ネットワークは、現実世界のドメインにおける無数の人工知能問題にVSAを適用する可能性を開く。
論文 参考訳(メタデータ) (2020-07-07T19:24:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。