論文の概要: Contracting Tsetlin Machine with Absorbing Automata
- arxiv url: http://arxiv.org/abs/2310.11481v1
- Date: Tue, 17 Oct 2023 12:56:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-19 12:17:22.690951
- Title: Contracting Tsetlin Machine with Absorbing Automata
- Title(参考訳): 吸収オートマタを用いたコンダクティング・テセリンマシン
- Authors: Bimal Bhattarai and Ole-Christoffer Granmo and Lei Jiao and Per-Arne
Andersen and Svein Anders Tunheim and Rishad Shafik and Alex Yakovlev
- Abstract要約: 本稿では,Tsetlin Automata (TA) 状態を吸収したスパースTsetlin Machine (TM) を提案する。
TAが吸収状態に達すると、再びその状態を離れることはない。
- 参考スコア(独自算出の注目度): 13.546713433460067
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we introduce a sparse Tsetlin Machine (TM) with absorbing
Tsetlin Automata (TA) states. In brief, the TA of each clause literal has both
an absorbing Exclude- and an absorbing Include state, making the learning
scheme absorbing instead of ergodic. When a TA reaches an absorbing state, it
will never leave that state again. If the absorbing state is an Exclude state,
both the automaton and the literal can be removed from further consideration.
The literal will as a result never participates in that clause. If the
absorbing state is an Include state, on the other hand, the literal is stored
as a permanent part of the clause while the TA is discarded. A novel sparse
data structure supports these updates by means of three action lists: Absorbed
Include, Include, and Exclude. By updating these lists, the TM gets smaller and
smaller as the literals and their TA withdraw. In this manner, the computation
accelerates during learning, leading to faster learning and less energy
consumption.
- Abstract(参考訳): 本稿では,Tsetlin Automata (TA) 状態を吸収したスパースTsetlin Machine (TM) を提案する。
簡単に言えば、各節リテラルのTAは吸収排他状態と吸収排他状態の両方を有しており、学習スキームはエルゴードの代わりに吸収される。
TAが吸収状態に達すると、再びその状態を離れることはない。
吸収状態が除外状態であれば、オートマトンとリテラルの両方を更なる考慮から取り除くことができる。
結果として、リテラルはその条項に決して参加しない。
一方、吸収状態がインクルード状態であれば、TAが破棄される間、リテラルは節の永続的な部分として記憶される。
新しいスパースデータ構造は、3つのアクションリスト(Absorbed Include、Include、Exclude)によってこれらの更新をサポートする。
これらのリストを更新することで、リテラルとTAが撤退するにつれて、TMは小さくなる。
このように、計算は学習中に加速し、学習の高速化とエネルギー消費の削減につながる。
関連論文リスト
- On the structure of Completely Reducible States [0.0]
バイパルタイト状態に対する完全な再現性は、内外絡み理論のいくつかの定理を証明するために用いられた。
これまでのところ、この性質を持つことが証明されたのは3種類のバイパルタイト状態のみである。
論文 参考訳(メタデータ) (2024-03-08T16:55:57Z) - DeepEraser: Deep Iterative Context Mining for Generic Text Eraser [103.39279154750172]
DeepEraserは反復操作によってイメージ内のテキストを消去するリカレントアーキテクチャである。
DeepEraserは1.4Mのパラメータしか持たず、エンドツーエンドでトレーニングされている。
論文 参考訳(メタデータ) (2024-02-29T12:39:04Z) - Building Concise Logical Patterns by Constraining Tsetlin Machine Clause
Size [11.43224924974832]
本稿では,CSC-TM(Clauuse Size Constrained TMs)の新たな変種について紹介する。
ある節が制約よりも多くのリテラルを含むとすぐに、リテラルを消し始める。
以上の結果より,CSC-TMはリテラルの最大80倍の精度を維持した。
論文 参考訳(メタデータ) (2023-01-19T17:37:48Z) - SETSum: Summarization and Visualization of Student Evaluations of
Teaching [74.76373136325032]
学生の教育評価(SET)は、大学や大学で広く使われている。
SETSumは、インストラクターや他のレビュアーにSETの調査結果の組織化されたイラストを提供している。
論文 参考訳(メタデータ) (2022-07-08T01:40:11Z) - On the Use and Misuse of Absorbing States in Multi-agent Reinforcement
Learning [55.95253619768565]
現在のMARLアルゴリズムは、実験を通してグループ内のエージェントの数が固定されていると仮定している。
多くの実践的な問題において、エージェントはチームメイトの前に終了する可能性がある。
本稿では,吸収状態を持つ完全連結層ではなく,注意を用いた既存の最先端MARLアルゴリズムのアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-11-10T23:45:08Z) - Finding a Balanced Degree of Automation for Summary Evaluation [83.08810773093882]
本稿では,フレキシブル・セミオートマチック・自動要約評価指標を提案する。
半自動 Lite2Pyramid は参照のための再利用可能な人間ラベル付き概要コンテンツユニット(SCU)を保持する
完全自動Lite3Pyramidは、自動的に抽出されたセマンティックトリプルトユニット(STU)をSCUに置き換える
論文 参考訳(メタデータ) (2021-09-23T17:12:35Z) - A Review on Semi-Supervised Relation Extraction [0.0]
関係抽出は、構造化されていないテキストから知識を抽出する上で重要な役割を果たす。
高価なアノテーションを減らすために、半教師付き学習はラベル付きデータとラベルなしデータの両方を活用することを目的としている。
本稿では,半教師付きREにおける3つの典型的な手法を,ディープラーニングやメタラーニングと比較する。
論文 参考訳(メタデータ) (2021-03-12T23:43:23Z) - Syntactic representation learning for neural network based TTS with
syntactic parse tree traversal [49.05471750563229]
本稿では,構文解析木に基づく構文表現学習手法を提案し,構文構造情報を自動的に活用する。
実験の結果,提案手法の有効性が示された。
複数の構文解析木を持つ文では、合成音声から韻律的差異が明確に認識される。
論文 参考訳(メタデータ) (2020-12-13T05:52:07Z) - Increasing the Inference and Learning Speed of Tsetlin Machines with
Clause Indexing [9.440900386313215]
Tsetlin Machine (TM) は、古典的なTsetlin Automaton (TA) とゲーム理論に基づいて開発された機械学習アルゴリズムである。
我々は,MNISTとFashion-MNISTの画像分類とIMDbの感情分析を最大15倍,学習速度が3倍に向上したことを報告した。
論文 参考訳(メタデータ) (2020-04-07T08:16:07Z) - At Which Level Should We Extract? An Empirical Analysis on Extractive
Document Summarization [110.54963847339775]
本研究は,全文を抽出する際,不必要な問題や冗長性が存在することを示す。
選挙区解析木に基づくサブセグメント単位の抽出を提案する。
論文 参考訳(メタデータ) (2020-04-06T13:35:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。