論文の概要: On the Convergence of Tsetlin Machines for the XOR Operator
- arxiv url: http://arxiv.org/abs/2101.02547v1
- Date: Thu, 7 Jan 2021 14:13:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-10 13:45:08.375141
- Title: On the Convergence of Tsetlin Machines for the XOR Operator
- Title(参考訳): XOR演算子に対するTsetlinマシンの収束性について
- Authors: Lei Jiao, Xuan Zhang, Ole-Christoffer Granmo, K. Darshana Abeyrathna
- Abstract要約: Tsetlin Machine(TM)は、いくつかの異なる特性を持つ新しい機械学習アルゴリズムです。
入力がxor演算子の出力と非線形関係にある場合のtmの収束を分析する。
- 参考スコア(独自算出の注目度): 16.85020149902772
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Tsetlin Machine (TM) is a novel machine learning algorithm with several
distinct properties, including transparent inference and learning using
hardware-near building blocks. Although numerous papers explore the TM
empirically, many of its properties have not yet been analyzed mathematically.
In this article, we analyze the convergence of the TM when input is
non-linearly related to output by the XOR-operator. Our analysis reveals that
the TM, with just two conjunctive clauses, can converge almost surely to
reproducing XOR, learning from training data over an infinite time horizon.
Furthermore, the analysis shows how the hyper-parameter T guides clause
construction so that the clauses capture the distinct sub-patterns in the data.
Our analysis of convergence for XOR thus lays the foundation for analyzing
other more complex logical expressions. These analyses altogether, from a
mathematical perspective, provide new insights on why TMs have obtained
state-of-the-art performance on several pattern recognition problems
- Abstract(参考訳): Tsetlin Machine(TM)は、ハードウェア近傍のビルディングブロックを用いた透過的な推論と学習を含む、いくつかの異なる特性を持つ新しい機械学習アルゴリズムである。
多くの論文がTMを実証的に探求しているが、その性質の多くはまだ数学的に解析されていない。
本稿では,入力がxor演算子の出力と非線形関係にある場合のtmの収束解析を行う。
解析の結果、TMは2つの節からなるだけで、ほぼ確実にXORの再生に収束し、無限時間水平線上のトレーニングデータから学習できることがわかった。
さらに、ハイパーパラメータTが節の構成をどのようにガイドし、節がデータ内の異なるサブパターンをキャプチャするかを示す。
XORの収束解析は、他のより複雑な論理式を解析するための基礎となる。
これらの解析は、数学的観点から、なぜTMがいくつかのパターン認識問題において最先端のパフォーマンスを得たのかの新しい知見を提供する。
関連論文リスト
- To CoT or not to CoT? Chain-of-thought helps mainly on math and symbolic reasoning [55.52872152909785]
Chain-of-Thought (CoT) は,大規模言語モデル (LLM) から推論能力を引き出すデファクト手法である。
私たちは、CoTが主に数学や論理学を含むタスクに強いパフォーマンス上の利点をもたらし、他のタスクよりもはるかに少ない利益をもたらすことを示しています。
論文 参考訳(メタデータ) (2024-09-18T17:55:00Z) - MuSR: Testing the Limits of Chain-of-thought with Multistep Soft Reasoning [63.80739044622555]
自然言語ナラティブで指定されたソフト推論タスクの言語モデルを評価するデータセットである MuSR を紹介する。
このデータセットには2つの重要な特徴がある。まず、ニューロシンボリック合成-自然生成アルゴリズムによって生成される。
第二に、私たちのデータセットインスタンスは、実世界の推論の領域に対応する無料のテキスト物語です。
論文 参考訳(メタデータ) (2023-10-24T17:59:20Z) - TRIGO: Benchmarking Formal Mathematical Proof Reduction for Generative
Language Models [68.65075559137608]
本稿では, ATP ベンチマーク TRIGO を提案する。このベンチマークでは, ステップバイステップの証明で三角法式を縮小するだけでなく, 論理式上で生成する LM の推論能力を評価する。
我々は、Webから三角法式とその縮小フォームを収集し、手作業で単純化プロセスに注釈を付け、それをリーン形式言語システムに翻訳する。
我々はLean-Gymに基づく自動生成装置を開発し、モデルの一般化能力を徹底的に分析するために、様々な困難と分布のデータセット分割を作成する。
論文 参考訳(メタデータ) (2023-10-16T08:42:39Z) - Generalized Convergence Analysis of Tsetlin Machines: A Probabilistic
Approach to Concept Learning [20.519261060300302]
本稿では,Tsetlinオートマトンに基づく機械学習アルゴリズムの総合収束解析について述べる。
本稿では,確率論的概念学習(PCL, Probabilistic Concept Learning)と呼ばれる新しいフレームワークを提案する。
我々は、任意の節$C_k$に対して、PCLが0.5p_k1$のときにリテラルの結合に収束することを確認する理論的証明を確立する。
論文 参考訳(メタデータ) (2023-10-03T12:21:41Z) - On the Equivalence of the Weighted Tsetlin Machine and the Perceptron [12.48513712803069]
Tsetlin Machine (TM) は本質的に解釈可能な機械傾き法として人気を集めている。
良い特性を持っているが、TMはAIアプリケーションのためのゴーツーメソッドではない。
論文 参考訳(メタデータ) (2022-12-27T22:38:59Z) - Linear Temporal Logic Modulo Theories over Finite Traces (Extended
Version) [72.38188258853155]
有限トレース(LTLf)上の線形時間論理について検討する。
命題の文字は任意の理論で解釈された一階述語式に置き換えられる。
Satisfiability Modulo Theories (LTLfMT) と呼ばれる結果の論理は半決定可能である。
論文 参考訳(メタデータ) (2022-04-28T17:57:33Z) - On the Convergence of Tsetlin Machines for the AND and the OR Operators [18.937937844147644]
Tsetlin Machine (TM) は命題論理に基づく新しい機械学習アルゴリズムである。
本稿では、入力トレーニングサンプルがそれぞれ AND および OR 演算子に従うときの収束を解析する。
論文 参考訳(メタデータ) (2021-09-17T13:53:26Z) - Quantum Algorithms for Data Representation and Analysis [68.754953879193]
機械学習におけるデータ表現のための固有problemsの解を高速化する量子手続きを提供する。
これらのサブルーチンのパワーと実用性は、主成分分析、対応解析、潜在意味解析のための入力行列の大きさのサブ線形量子アルゴリズムによって示される。
その結果、入力のサイズに依存しない実行時のパラメータは妥当であり、計算モデル上の誤差が小さいことが示され、競合的な分類性能が得られる。
論文 参考訳(メタデータ) (2021-04-19T00:41:43Z) - Stochastic Approximation for Online Tensorial Independent Component
Analysis [98.34292831923335]
独立成分分析(ICA)は統計機械学習や信号処理において一般的な次元削減ツールである。
本稿では,各独立成分を推定する副産物オンライン時系列アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-28T18:52:37Z) - On the Convergence of Tsetlin Machines for the IDENTITY- and NOT
Operators [14.186377732379045]
我々は,分類に係わる1つの節のみを用いて,Tsetlin Machineの収束を分析する。
分析の結果、TMは1つの節だけで、意図した論理演算子に正しく収束できることが判明した。
2つの基本作用素の収束の解析は、他の論理作用素を分析する基礎となる。
論文 参考訳(メタデータ) (2020-07-28T14:31:16Z) - Closed-Form Expressions for Global and Local Interpretation of Tsetlin
Machines with Applications to Explaining High-Dimensional Data [7.05622249909585]
TMモデルが特定の予測を行う理由(局所的解釈可能性)を理解するためのクローズドフォーム表現を提案する。
また、連続した特徴に対する特徴値範囲の重要性を測定するための式も導入する。
分類と回帰については,XGBoost, Explainable Boosting Machines, Neural Additive Modelsと比較し, SHAPとの対応, および競合予測精度を示す。
論文 参考訳(メタデータ) (2020-07-27T21:47:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。