論文の概要: Hey Pentti, We Did It Again!: Differentiable vector-symbolic types that prove polynomial termination
- arxiv url: http://arxiv.org/abs/2510.16533v1
- Date: Sat, 18 Oct 2025 15:05:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.027797
- Title: Hey Pentti, We Did It Again!: Differentiable vector-symbolic types that prove polynomial termination
- Title(参考訳): Hey Pentti, We Did It Again!: 多項式終端を証明する微分可能ベクトル記号型
- Authors: Eilene Tomkins-Flanagan, Connor Hanley, Mary A. Kelly,
- Abstract要約: 我々は、全ての型付きプログラムが時間内に停止することを証明できる型付きコンピュータ言語 Doug を提示する。
Dougはベクトルシンボリックアーキテクチャ(VSA)で符号化される
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We present a typed computer language, Doug, in which all typed programs may be proved to halt in polynomial time, encoded in a vector-symbolic architecture (VSA). Doug is just an encoding of the light linear functional programming language (LLFPL) described by (Schimanski2009, ch. 7). The types of Doug are encoded using a slot-value encoding scheme based on holographic declarative memory (HDM; Kelly, 2020). The terms of Doug are encoded using a variant of the Lisp VSA defined by (Flanagan, 2024). Doug allows for some points on the embedding space of a neural network to be interpreted as types, where the types of nearby points are similar both in structure and content. Types in Doug are therefore learnable by a neural network. Following (Chollet, 2019), (Card, 1983), and (Newell, 1981), we view skill as the application of a procedure, or program of action, that causes a goal to be satisfied. Skill acquisition may therefore be expressed as program synthesis. Using Doug, we hope to describe a form of learning of skilled behaviour that follows a human-like pace of skill acquisition (i.e., substantially faster than brute force; Heathcote, 2000), exceeding the efficiency of all currently existing approaches (Kaplan, 2020; Jones, 2021; Chollet, 2024). Our approach brings us one step closer to modeling human mental representations, as they must actually exist in the brain, and those representations' acquisition, as they are actually learned.
- Abstract(参考訳): 本稿では,全ての型付きプログラムが多項式時間で停止することを証明し,ベクトル記号アーキテクチャ (VSA) で符号化した型付きコンピュータ言語 Doug を提案する。
Doug は (Schimanski 2009, ch. 7) によって記述された軽量線形関数型プログラミング言語 (LLFPL) の符号化にすぎない。
Dougの型はホログラフィック宣言メモリ(HDM; Kelly, 2020)に基づくスロット値符号化方式を用いて符号化される。
Doug の用語は (Flanagan, 2024) で定義された Lisp VSA の変種を用いて符号化される。
Doug氏は、ニューラルネットワークの埋め込み空間に関するいくつかのポイントを、構造と内容の両方において、近くのポイントのタイプが類似しているタイプとして解釈することを可能にする。
したがって、Dougの型はニューラルネットワークによって学習可能である。
以下 (Chollet, 2019), (Card, 1983), (Newell, 1981) に続いて,我々は,目標を満足させる手順や行動プログラムの応用とみなす。
したがって、スキル獲得はプログラム合成として表現できる。
Dougを使って、人間のようなスキル獲得のペース(すなわち、ブルートフォースよりもかなり速いHeathcote、2000年)に従って、既存のすべてのアプローチ(Kaplan、2020年、Jones、2021年、Chollet、2024年)の効率を超越した、熟練した行動の学習形態を記述したいと考えています。
私たちのアプローチは、人間の心的表現をモデル化するための一歩を踏み出します。
関連論文リスト
- Improving Large Language Models with Concept-Aware Fine-Tuning [55.59287380665864]
概念認識ファインチューニング(CAFT)は,大規模言語モデル(LLM)のための新しいマルチトークン学習手法である
CAFTは複数のトークンにまたがるシーケンスの学習を可能にし、より強力な概念認識学習を促進する。
実験は、従来の次世代ファインタニング法と比較して大幅に改善された。
論文 参考訳(メタデータ) (2025-06-09T14:55:00Z) - Training Neural Networks as Recognizers of Formal Languages [87.06906286950438]
ニューラルネットワークを文字列のバイナリ分類器として直接訓練し評価する。
3つのニューラルアーキテクチャに対して、チョムスキー階層の様々な言語について結果を提供する。
我々の貢献は、将来の研究において、言語認識の主張を理論的に健全に検証するのに役立つだろう。
論文 参考訳(メタデータ) (2024-11-11T16:33:25Z) - FIRP: Faster LLM inference via future intermediate representation prediction [54.897493351694195]
FIRPはデコードステップ毎に1つではなく複数のトークンを生成する。
いくつかのモデルとデータセットで1.9x-3xのスピードアップ比を示す広範な実験を行った。
論文 参考訳(メタデータ) (2024-10-27T15:53:49Z) - AI Coders Are Among Us: Rethinking Programming Language Grammar Towards Efficient Code Generation [14.831115535710692]
本稿では,AI指向文法の概念を提案する。
これは、AIモデルの動作メカニズムにより良い方法でコードを表現することを目的としています。
AI指向文法で書かれたコードはフォーマットを捨て、最小限のトークンを使用する。
論文 参考訳(メタデータ) (2024-04-25T04:46:02Z) - Linear Codes for Hyperdimensional Computing [9.7902367664742]
ランダムな線形符号は、キー-値ストアを形成するために使用できるリッチなサブコード構造を提供する。
筆者らが開発しているフレームワークでは、ランダムな線形符号は単純なリカバリアルゴリズムを(束縛あるいは束縛された)構成表現に含めていることが示される。
論文 参考訳(メタデータ) (2024-03-05T19:18:44Z) - Efficient Computation of Shap Explanation Scores for Neural Network
Classifiers via Knowledge Compilation [0.0]
効率的なシャップ計算のために、バイナリニューラルネットワークをこれらの回路に変換する方法を示す。
実験の結果からわかるように、パフォーマンスの向上は大きいです。
論文 参考訳(メタデータ) (2023-03-11T23:33:43Z) - Schr\"{o}dinger's Bat: Diffusion Models Sometimes Generate Polysemous
Words in Superposition [71.45263447328374]
近年の研究では、プロンプトが複数の意味を持つ単語を含む場合、テキストから画像への拡散モデルが奇妙な振る舞いを示すことが示されている。
2つの単語のエンコーディングの総和である入力を与えられた場合、このモデルは、この和に表される両方の概念を含む画像を生成することができることを示す。
次に,CLIPエンコーダを用いてプロンプトをエンコードし,意味の重ね合わせとして多文語をエンコードし,線形代数的手法を用いてこれらの表現を編集し,生成した画像に表される感覚に影響を与えることを示した。
論文 参考訳(メタデータ) (2022-11-23T16:26:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。