論文の概要: On the Convergence of Tsetlin Machines for the IDENTITY- and NOT
Operators
- arxiv url: http://arxiv.org/abs/2007.14268v3
- Date: Mon, 11 Oct 2021 15:56:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-06 01:35:37.476484
- Title: On the Convergence of Tsetlin Machines for the IDENTITY- and NOT
Operators
- Title(参考訳): Tsetlin Machines for the IDENTITY- and NOT Operators の収束性について
- Authors: Xuan Zhang, Lei Jiao, Ole-Christoffer Granmo, and Morten Goodwin
- Abstract要約: 我々は,分類に係わる1つの節のみを用いて,Tsetlin Machineの収束を分析する。
分析の結果、TMは1つの節だけで、意図した論理演算子に正しく収束できることが判明した。
2つの基本作用素の収束の解析は、他の論理作用素を分析する基礎となる。
- 参考スコア(独自算出の注目度): 14.186377732379045
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Tsetlin Machine (TM) is a recent machine learning algorithm with several
distinct properties, such as interpretability, simplicity, and
hardware-friendliness. Although numerous empirical evaluations report on its
performance, the mathematical analysis of its convergence is still open. In
this article, we analyze the convergence of the TM with only one clause
involved for classification. More specifically, we examine two basic logical
operators, namely, the "IDENTITY"- and "NOT" operators. Our analysis reveals
that the TM, with just one clause, can converge correctly to the intended
logical operator, learning from training data over an infinite time horizon.
Besides, it can capture arbitrarily rare patterns and select the most accurate
one when two candidate patterns are incompatible, by configuring a granularity
parameter. The analysis of the convergence of the two basic operators lays the
foundation for analyzing other logical operators. These analyses altogether,
from a mathematical perspective, provide new insights on why TMs have obtained
state-of-the-art performance on several pattern recognition problems.
- Abstract(参考訳): tsetlin machine (tm) は、解釈性、単純性、ハードウェアフレンドリーなど、いくつかの特性を持つ最近の機械学習アルゴリズムである。
数多くの経験的評価がその性能について報告しているが、その収束の数学的解析はまだ開いている。
本稿では,分類に係わる1つの節のみを用いて,TMの収束を分析する。
具体的には,2つの基本論理演算子,すなわち「IDENTITY」演算子と「NOT」演算子について検討する。
解析の結果、TMは1つの節だけで、意図した論理演算子に正しく収束し、無限時間水平線上のトレーニングデータから学習できることが判明した。
さらに、粒度パラメータを設定することで、任意に稀なパターンをキャプチャし、2つの候補パターンが互換性がない場合に最も正確なパターンを選択することができる。
2つの基本作用素の収束の解析は、他の論理作用素の解析の基礎を成す。
これらの分析は、数学的観点から、TMがいくつかのパターン認識問題において最先端のパフォーマンスを得た理由に関する新たな知見を提供する。
関連論文リスト
- To CoT or not to CoT? Chain-of-thought helps mainly on math and symbolic reasoning [55.52872152909785]
Chain-of-Thought (CoT) は,大規模言語モデル (LLM) から推論能力を引き出すデファクト手法である。
私たちは、CoTが主に数学や論理学を含むタスクに強いパフォーマンス上の利点をもたらし、他のタスクよりもはるかに少ない利益をもたらすことを示しています。
論文 参考訳(メタデータ) (2024-09-18T17:55:00Z) - MuSR: Testing the Limits of Chain-of-thought with Multistep Soft Reasoning [63.80739044622555]
自然言語ナラティブで指定されたソフト推論タスクの言語モデルを評価するデータセットである MuSR を紹介する。
このデータセットには2つの重要な特徴がある。まず、ニューロシンボリック合成-自然生成アルゴリズムによって生成される。
第二に、私たちのデータセットインスタンスは、実世界の推論の領域に対応する無料のテキスト物語です。
論文 参考訳(メタデータ) (2023-10-24T17:59:20Z) - In-Context Convergence of Transformers [63.04956160537308]
勾配降下法により訓練したソフトマックスアテンションを有する一層変圧器の学習力学について検討した。
不均衡な特徴を持つデータに対しては、学習力学が段階的に収束する過程をとることを示す。
論文 参考訳(メタデータ) (2023-10-08T17:55:33Z) - Generalized Convergence Analysis of Tsetlin Machines: A Probabilistic
Approach to Concept Learning [20.519261060300302]
本稿では,Tsetlinオートマトンに基づく機械学習アルゴリズムの総合収束解析について述べる。
本稿では,確率論的概念学習(PCL, Probabilistic Concept Learning)と呼ばれる新しいフレームワークを提案する。
我々は、任意の節$C_k$に対して、PCLが0.5p_k1$のときにリテラルの結合に収束することを確認する理論的証明を確立する。
論文 参考訳(メタデータ) (2023-10-03T12:21:41Z) - The Transformation Logics [58.35574640378678]
表現性と複雑性のトレードオフのバランスをとるために設計された、時間論理の新しいファミリーを導入する。
重要な特徴は、変換演算子と呼ばれる新しい種類の演算子を定義する可能性である。
表現力と複雑性を増大させる階層を創り出すことができる論理を提示する。
論文 参考訳(メタデータ) (2023-04-19T13:24:04Z) - On the Equivalence of the Weighted Tsetlin Machine and the Perceptron [12.48513712803069]
Tsetlin Machine (TM) は本質的に解釈可能な機械傾き法として人気を集めている。
良い特性を持っているが、TMはAIアプリケーションのためのゴーツーメソッドではない。
論文 参考訳(メタデータ) (2022-12-27T22:38:59Z) - MURMUR: Modular Multi-Step Reasoning for Semi-Structured Data-to-Text
Generation [102.20036684996248]
多段階推論を用いた半構造化データからテキストを生成するための,ニューロシンボリックなモジュラーアプローチであるMURMURを提案する。
WebNLG や LogicNLG のような2つのデータ・テキスト生成タスクについて実験を行った。
論文 参考訳(メタデータ) (2022-12-16T17:36:23Z) - On the Convergence of Tsetlin Machines for the AND and the OR Operators [18.937937844147644]
Tsetlin Machine (TM) は命題論理に基づく新しい機械学習アルゴリズムである。
本稿では、入力トレーニングサンプルがそれぞれ AND および OR 演算子に従うときの収束を解析する。
論文 参考訳(メタデータ) (2021-09-17T13:53:26Z) - On the Convergence of Tsetlin Machines for the XOR Operator [16.85020149902772]
Tsetlin Machine(TM)は、いくつかの異なる特性を持つ新しい機械学習アルゴリズムです。
入力がxor演算子の出力と非線形関係にある場合のtmの収束を分析する。
論文 参考訳(メタデータ) (2021-01-07T14:13:41Z) - Closed-Form Expressions for Global and Local Interpretation of Tsetlin
Machines with Applications to Explaining High-Dimensional Data [7.05622249909585]
TMモデルが特定の予測を行う理由(局所的解釈可能性)を理解するためのクローズドフォーム表現を提案する。
また、連続した特徴に対する特徴値範囲の重要性を測定するための式も導入する。
分類と回帰については,XGBoost, Explainable Boosting Machines, Neural Additive Modelsと比較し, SHAPとの対応, および競合予測精度を示す。
論文 参考訳(メタデータ) (2020-07-27T21:47:24Z) - Evaluating Logical Generalization in Graph Neural Networks [59.70452462833374]
グラフニューラルネットワーク(GNN)を用いた論理一般化の課題について検討する。
ベンチマークスイートであるGraphLogでは、学習アルゴリズムが異なる合成論理でルール誘導を実行する必要がある。
モデルが一般化し適応する能力は、トレーニング中に遭遇する論理規則の多様性によって強く決定される。
論文 参考訳(メタデータ) (2020-03-14T05:45:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。