論文の概要: On the Convergence of Tsetlin Machines for the AND and the OR Operators
- arxiv url: http://arxiv.org/abs/2109.09488v1
- Date: Fri, 17 Sep 2021 13:53:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-21 16:52:24.477278
- Title: On the Convergence of Tsetlin Machines for the AND and the OR Operators
- Title(参考訳): ANDおよびOR演算子に対するTsetlinマシンの収束性について
- Authors: Lei Jiao, Xuan Zhang, Ole-Christoffer Granmo
- Abstract要約: Tsetlin Machine (TM) は命題論理に基づく新しい機械学習アルゴリズムである。
本稿では、入力トレーニングサンプルがそれぞれ AND および OR 演算子に従うときの収束を解析する。
- 参考スコア(独自算出の注目度): 18.937937844147644
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Tsetlin Machine (TM) is a novel machine-learning algorithm based on
propositional logic, which has obtained state-of-the-art performance on several
pattern recognition problems. In previous studies, the convergence properties
of TM for 1-bit operation and XOR operation have been analyzed. To make the
analyses for the basic digital operations complete, in this article, we analyze
the convergence when input training samples follow AND and OR operators
respectively. Our analyses reveal that the TM can converge almost surely to
reproduce AND and OR operators, which are learnt from training data over an
infinite time horizon. The analyses on AND and OR operators, together with the
previously analysed 1-bit and XOR operations, complete the convergence analyses
on basic operators in Boolean algebra.
- Abstract(参考訳): Tsetlin Machine (TM) は命題論理に基づく新しい機械学習アルゴリズムであり、いくつかのパターン認識問題に対して最先端の性能を得た。
これまでの研究では, 1ビット演算とXOR演算に対するTMの収束特性を解析した。
本稿では,基本デジタル操作の解析を完了させるため,入力トレーニングサンプルがそれぞれANDおよびOR演算子に従う場合の収束度を解析する。
解析の結果、TMは、無限時間水平線上のトレーニングデータから学習した AND および OR 演算子にほぼ確実に収束できることが判明した。
および/または演算子の解析は、以前に解析された1ビットおよびxor演算とともに、ブール代数における基本作用素の収束解析を完結させる。
関連論文リスト
- Learning Operators with Stochastic Gradient Descent in General Hilbert
Spaces [6.690174942973101]
本研究では、一般ヒルベルト空間間の作用素の学習に勾配降下(SGD)を活用することを検討する。
我々は、SGDアルゴリズムの収束率の上限を確立し、最小限の低境界解析を行う。
ベクトル値および実値のカーネルヒルベルト空間に基づく演算子学習問題への解析の適用により、新たな収束結果が得られる。
論文 参考訳(メタデータ) (2024-02-07T09:31:01Z) - In-Context Convergence of Transformers [63.04956160537308]
勾配降下法により訓練したソフトマックスアテンションを有する一層変圧器の学習力学について検討した。
不均衡な特徴を持つデータに対しては、学習力学が段階的に収束する過程をとることを示す。
論文 参考訳(メタデータ) (2023-10-08T17:55:33Z) - A Mechanistic Interpretation of Arithmetic Reasoning in Language Models
using Causal Mediation Analysis [128.0532113800092]
算数問題に対するトランスフォーマーに基づくLMの機械的解釈を提案する。
これにより、算術に関連する情報がLMによってどのように処理されるかについての洞察が得られる。
論文 参考訳(メタデータ) (2023-05-24T11:43:47Z) - Rethinking Reinforcement Learning based Logic Synthesis [13.18408482571087]
我々は,重要な演算子を自動的に認識し,未知の回路に一般化可能な共通演算子列を生成するRLベースの新しい手法を開発した。
本アルゴリズムは,EPFLベンチマーク,プライベートデータセット,産業規模での回路で検証する。
論文 参考訳(メタデータ) (2022-05-16T12:15:32Z) - Eigen Analysis of Self-Attention and its Reconstruction from Partial
Computation [58.80806716024701]
ドット積に基づく自己注意を用いて計算した注意点のグローバルな構造について検討する。
注意点の変動の大部分は低次元固有空間にあることがわかった。
トークンペアの部分的な部分集合に対してのみスコアを計算し、それを用いて残りのペアのスコアを推定する。
論文 参考訳(メタデータ) (2021-06-16T14:38:42Z) - Fractal Structure and Generalization Properties of Stochastic
Optimization Algorithms [71.62575565990502]
最適化アルゴリズムの一般化誤差は、その一般化尺度の根底にあるフラクタル構造の複雑性'にバウンドできることを示す。
さらに、特定の問題(リニア/ロジスティックレグレッション、隠れ/層ニューラルネットワークなど)とアルゴリズムに対して、結果をさらに専門化します。
論文 参考訳(メタデータ) (2021-06-09T08:05:36Z) - A Simple and General Debiased Machine Learning Theorem with Finite
Sample Guarantees [4.55274575362193]
我々は、あらゆる機械学習アルゴリズムのグローバルまたはローカル機能を含む、漸近的不偏性機械学習定理を提供する。
この結果は、アナリストが現代の学習理論の速度を従来の統計的推論に翻訳するために使用できる、単純な条件のセットで決定される。
論文 参考訳(メタデータ) (2021-05-31T17:57:02Z) - Quantum Algorithms for Data Representation and Analysis [68.754953879193]
機械学習におけるデータ表現のための固有problemsの解を高速化する量子手続きを提供する。
これらのサブルーチンのパワーと実用性は、主成分分析、対応解析、潜在意味解析のための入力行列の大きさのサブ線形量子アルゴリズムによって示される。
その結果、入力のサイズに依存しない実行時のパラメータは妥当であり、計算モデル上の誤差が小さいことが示され、競合的な分類性能が得られる。
論文 参考訳(メタデータ) (2021-04-19T00:41:43Z) - On the Convergence of Tsetlin Machines for the XOR Operator [16.85020149902772]
Tsetlin Machine(TM)は、いくつかの異なる特性を持つ新しい機械学習アルゴリズムです。
入力がxor演算子の出力と非線形関係にある場合のtmの収束を分析する。
論文 参考訳(メタデータ) (2021-01-07T14:13:41Z) - On the Convergence of Tsetlin Machines for the IDENTITY- and NOT
Operators [14.186377732379045]
我々は,分類に係わる1つの節のみを用いて,Tsetlin Machineの収束を分析する。
分析の結果、TMは1つの節だけで、意図した論理演算子に正しく収束できることが判明した。
2つの基本作用素の収束の解析は、他の論理作用素を分析する基礎となる。
論文 参考訳(メタデータ) (2020-07-28T14:31:16Z) - A Constraint-Based Algorithm for the Structural Learning of
Continuous-Time Bayesian Networks [70.88503833248159]
連続時間ベイズネットワークの構造を学習するための制約に基づく最初のアルゴリズムを提案する。
我々は,条件付き独立性を確立するために提案した,異なる統計的テストと基礎となる仮説について論じる。
論文 参考訳(メタデータ) (2020-07-07T07:34:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。