論文の概要: ToL: A Tensor of List-Based Unified Computation Model
- arxiv url: http://arxiv.org/abs/2212.10740v1
- Date: Wed, 21 Dec 2022 03:22:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 15:31:53.370404
- Title: ToL: A Tensor of List-Based Unified Computation Model
- Title(参考訳): ToL: リストベースの統一計算モデルのテンソル
- Authors: Hongxiao Li, Wanling Gao, Lei Wang, and Jianfeng Zhan
- Abstract要約: 従来の計算モデルは、全ての計算を表現できる同等の能力を持つが、複雑なアルゴリズムをプログラミングするためのプリミティブ演算子を提供できない。
本稿では、一般化された表現能力を持つ統一計算モデルと、ハイレベルアルゴリズムをプログラムするためのプリミティブ演算子の簡潔なセットを提案する。
- 参考スコア(独自算出の注目度): 3.012532379848898
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Previous computation models either have equivalent abilities in representing
all computations but fail to provide primitive operators for programming
complex algorithms or lack generalized expression ability to represent
newly-added computations. This article presents a unified computation model
with generalized expression ability and a concise set of primitive operators
for programming high-level algorithms. We propose a unified data abstraction --
Tensor of List, and offer a unified computation model based on Tensor of List,
which we call the ToL model (in short, ToL). ToL introduces five atomic
computations that can represent any elementary computation by finite
composition, ensured with strict formal proof. Based on ToL, we design a
pure-functional language -- ToLang. ToLang provides a concise set of primitive
operators that can be used to program complex big data and AI algorithms. Our
evaluations show ToL has generalized expression ability and a built-in
performance indicator, born with a strictly defined computation metric --
elementary operation count (EOPs), consistent with FLOPs within a small error
range.
- Abstract(参考訳): 従来の計算モデルは、全ての計算を表現できる同等の能力を持つが、複雑なアルゴリズムをプログラミングするためのプリミティブ演算子を提供することができないか、新しく追加された計算を表現するための一般的な表現能力が欠如している。
本稿では,汎用的な表現能力を持つ統一計算モデルと,高レベルアルゴリズムをプログラミングするプリミティブ演算子の簡潔なセットを提案する。
本稿では,リストのテンソル(Tensor of List)を提案するとともに,ToLモデル(略してToL)と呼ぶ,リストのテンソル(Tensor of List)に基づく統一的な計算モデルを提案する。
ToLは有限合成による基本的な計算を表現できる5つの原子計算を導入し、厳密な形式証明で保証する。
ToLに基づいて、純粋関数型言語 -- ToLangを設計します。
tolangは複雑なビッグデータとaiアルゴリズムのプログラミングに使用できる、簡潔なプリミティブオペレータセットを提供する。
評価の結果,ToLは計算量-要素演算数 (EOPs) を厳密に定義し,小さな誤差範囲内でFLOPsと整合した,一般化された表現能力と内蔵性能指標を持つことがわかった。
関連論文リスト
- A Neural Rewriting System to Solve Algorithmic Problems [51.485598133884615]
本稿では,特殊なモジュールで構成されたニューラルアーキテクチャとして,書き換えシステムを実装可能であることを示す。
シンボリック・フォーミュラの簡素化を必要とする3種類のアルゴリズムタスクに対して,本モデルの評価を行った。
論文 参考訳(メタデータ) (2024-02-27T10:57:07Z) - TRIGO: Benchmarking Formal Mathematical Proof Reduction for Generative
Language Models [68.65075559137608]
本稿では, ATP ベンチマーク TRIGO を提案する。このベンチマークでは, ステップバイステップの証明で三角法式を縮小するだけでなく, 論理式上で生成する LM の推論能力を評価する。
我々は、Webから三角法式とその縮小フォームを収集し、手作業で単純化プロセスに注釈を付け、それをリーン形式言語システムに翻訳する。
我々はLean-Gymに基づく自動生成装置を開発し、モデルの一般化能力を徹底的に分析するために、様々な困難と分布のデータセット分割を作成する。
論文 参考訳(メタデータ) (2023-10-16T08:42:39Z) - Efficient Model-Free Exploration in Low-Rank MDPs [76.87340323826945]
低ランクマルコフ決定プロセスは、関数近似を持つRLに対して単純だが表現力のあるフレームワークを提供する。
既存のアルゴリズムは、(1)計算的に抽出可能であるか、または(2)制限的な統計的仮定に依存している。
提案手法は,低ランクMPPの探索のための最初の実証可能なサンプル効率アルゴリズムである。
論文 参考訳(メタデータ) (2023-07-08T15:41:48Z) - Provably Efficient Representation Learning with Tractable Planning in
Low-Rank POMDP [81.00800920928621]
部分的に観測可能なマルコフ決定過程(POMDP)における表現学習の研究
まず,不確実性(OFU)に直面した最大推定(MLE)と楽観性を組み合わせた復調性POMDPのアルゴリズムを提案する。
次に、このアルゴリズムをより広範な$gamma$-observable POMDPのクラスで機能させる方法を示す。
論文 参考訳(メタデータ) (2023-06-21T16:04:03Z) - Synthesising Recursive Functions for First-Order Model Counting:
Challenges, Progress, and Conjectures [12.47276164048813]
1次モデルカウント(英: First-order model counting、FOMC)は、有限領域の1次論理において文のモデルを数えるように要求する計算問題である。
私たちは、典型的にドメイン再帰に伴う制限を緩和し、サイクルを含むかもしれない有向グラフを扱う。
これらの改良により、アルゴリズムはそれまで到達範囲を超えていた問題を数えるための効率的な解を見つけることができる。
論文 参考訳(メタデータ) (2023-06-07T06:49:01Z) - Evaluating and Improving Tool-Augmented Computation-Intensive Math
Reasoning [75.74103236299477]
CoT(Chain-of- Thought prompting)とツール拡張は、大きな言語モデルを改善するための効果的なプラクティスとして検証されている。
ツールインターフェース,すなわち textbfDELI を用いた推論ステップを考慮に入れた新しい手法を提案する。
CARPと他の6つのデータセットの実験結果から、提案されたDELIは、主に競合ベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-06-04T17:02:59Z) - Efficient Inference via Universal LSH Kernel [35.22983601434134]
本稿では,単純なハッシュ計算と集約で推論手順を近似できる数列の簡潔な集合である,数学的に証明可能なRepresenter Sketchを提案する。
Representer Sketchは、カーネル文学から人気のあるRepresenter Theoremの上に構築されている。
本研究では,Representer Sketchによるストレージ要件の最大114倍,複雑性の最大59倍を精度の低下なく達成できることを示す。
論文 参考訳(メタデータ) (2021-06-21T22:06:32Z) - Berrut Approximated Coded Computing: Straggler Resistance Beyond
Polynomial Computing [34.69732430310801]
本稿では,ストラグラー効果に対処する代替手法として,Berrut Approximated Coded Computing (BACC)を提案する。
BACCは計算複雑性が低い数値的に安定であることが証明されている。
特に、BACCは、サーバのクラスタ上でディープニューラルネットワークをトレーニングするために使用される。
論文 参考訳(メタデータ) (2020-09-17T14:23:38Z) - Learning Generalized Relational Heuristic Networks for Model-Agnostic
Planning [29.714818991696088]
本稿では,記号的行動モデルが存在しない場合の一般化を学習するための新しいアプローチを開発する。
データの効率的で一般化可能な学習を容易にするために、抽象状態表現を使用する。
論文 参考訳(メタデータ) (2020-07-10T06:08:28Z) - Coded Distributed Computing with Partial Recovery [56.08535873173518]
部分回復型符号化計算(CCPR)と呼ばれる新しい符号化行列ベクトル乗法を導入する。
CCPRは計算時間と復号化の複雑さを減らし、精度と計算速度のトレードオフを可能にする。
次に、この手法をより一般的な計算タスクの分散実装に拡張し、部分的回復を伴う符号化通信方式を提案する。
論文 参考訳(メタデータ) (2020-07-04T21:34:49Z) - Learning Interpretable Models in the Property Specification Language [6.875312133832079]
IEEE標準時相論理PSLにおける公式の学習アルゴリズムを開発した。
私たちの研究は、n番目の点ごとに起こる事象のような多くの自然の性質が、言葉で表現できないという事実に動機づけられている。
論文 参考訳(メタデータ) (2020-02-10T11:42:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。