論文の概要: Fuzzy-Pattern Tsetlin Machine
- arxiv url: http://arxiv.org/abs/2508.08350v1
- Date: Mon, 11 Aug 2025 15:09:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-13 21:07:34.191319
- Title: Fuzzy-Pattern Tsetlin Machine
- Title(参考訳): ファジィパタン・テセリンマシン
- Authors: Artem Hnilov,
- Abstract要約: オール・オー・ナッシング」節評価戦略は,アルゴリズムのTsetlin Machine(TM)ファミリーの中核的なメカニズムである。
本稿では,文節評価が厳密ではなくファジィであるファジィ・パタン・テセリン・マシン(FPTM)を紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The "all-or-nothing" clause evaluation strategy is a core mechanism in the Tsetlin Machine (TM) family of algorithms. In this approach, each clause - a logical pattern composed of binary literals mapped to input data - is disqualified from voting if even a single literal fails. Due to this strict requirement, standard TMs must employ thousands of clauses to achieve competitive accuracy. This paper introduces the Fuzzy-Pattern Tsetlin Machine (FPTM), a novel variant where clause evaluation is fuzzy rather than strict. If some literals in a clause fail, the remaining ones can still contribute to the overall vote with a proportionally reduced score. As a result, each clause effectively consists of sub-patterns that adapt individually to the input, enabling more flexible, efficient, and robust pattern matching. The proposed fuzzy mechanism significantly reduces the required number of clauses, memory footprint, and training time, while simultaneously improving accuracy. On the IMDb dataset, FPTM achieves 90.15% accuracy with only one clause per class, a 50x reduction in clauses and memory over the Coalesced Tsetlin Machine. FPTM trains up to 316x faster (45 seconds vs. 4 hours) and fits within 50 KB, enabling online learning on microcontrollers. Inference throughput reaches 34.5 million predictions/second (51.4 GB/s). On Fashion-MNIST, accuracy reaches 92.18% (2 clauses), 93.19% (20 clauses) and 94.68% (8000 clauses), a ~400x clause reduction compared to the Composite TM's 93.00% (8000 clauses). On the Amazon Sales dataset with 20% noise, FPTM achieves 85.22% accuracy, significantly outperforming the Graph Tsetlin Machine (78.17%) and a Graph Convolutional Neural Network (66.23%).
- Abstract(参考訳): All-or-nothing"節の評価戦略は、アルゴリズムのTsetlin Machine(TM)ファミリーの中核的なメカニズムである。
このアプローチでは、各節 - 入力データにマッピングされたバイナリリテラルで構成された論理パターン - が、1つのリテラルがフェールした場合に投票から除外される。
この厳格な要件のため、標準TMは競争精度を達成するために何千という条項を使わなければならない。
本稿では,文節評価が厳密ではなくファジィであるファジィ・パタン・テセリン・マシン(FPTM)を紹介する。
節のいくつかのリテラルが失敗した場合、残りのリテラルは比例的にスコアを減らして全体の投票に貢献することができる。
その結果、各節は、入力に個別に適応し、より柔軟で効率的で堅牢なパターンマッチングを可能にするサブパターンを効果的に構成する。
提案するファジィ機構は,必要な節数,メモリフットプリント,トレーニング時間を大幅に削減し,同時に精度を向上する。
IMDbデータセットでは、FPTMの精度は90.15%で、クラスごとに1つの節しかなく、Coalesced Tsetlin Machine上で50倍の節とメモリが削減されている。
FPTMは最大316倍高速(45秒対4時間)で50KBに収まる。
推論スループットは3450万/秒(51.4GB/秒)に達する。
Fashion-MNISTでは、精度は92.18% (2節)、93.19% (20節)、94.68% (8000節)に達し、コンポジットTMの93.00% (8000節)と比べて約400倍に低下している。
20%のノイズを持つAmazon Salesデータセットでは、FPTMの精度は85.22%で、Graph Tsetlin Machine(78.17%)とGraph Convolutional Neural Network(66.23%)を大きく上回っている。
関連論文リスト
- High Accuracy, Less Talk (HALT): Reliable LLMs through Capability-Aligned Finetuning [84.52940628494879]
大規模言語モデル(LLM)は現在、すべてのプロンプトに応答する。
LLMは、知識や能力の欠如によって、誤った答えを生み出すことができる。
本稿では,その正確性に自信を持った場合にのみコンテンツを生成するためのLCMのポストトレーニングを提案する。
論文 参考訳(メタデータ) (2025-06-04T15:16:21Z) - Learning Adaptive Parallel Reasoning with Language Models [70.1745752819628]
本稿では,適応並列推論(Adaptive Parallel Reasoning, APR)を提案する。
APRは、spawn()とjoin()操作を使用して適応的なマルチスレッド推論を可能にすることで、既存の推論メソッドを一般化する。
鍵となる革新は、親と子の両方の推論スレッドを最適化して、事前に定義された推論構造を必要とせずにタスクの成功率を高める、エンドツーエンドの強化学習戦略である。
論文 参考訳(メタデータ) (2025-04-21T22:29:02Z) - ETHEREAL: Energy-efficient and High-throughput Inference using Compressed Tsetlin Machine [0.3121107735397556]
Tsetlin Machine(TM)はディープニューラルネットワーク(DNN)に代わる新しい選択肢である
本稿では,排除されたオートマトン状態を用いて,肯定句と否定句の両方でTM論理パターンをスパース化するトレーニング手法を提案する。
標準のTMと比較して、ETHEREAL TMモデルはモデルサイズを最大87.54%削減できる。
論文 参考訳(メタデータ) (2025-02-08T16:58:43Z) - Group-Adaptive Threshold Optimization for Robust AI-Generated Text Detection [60.09665704993751]
本稿では,確率的AIテキスト検出のためのグループ固有しきい値最適化アルゴリズムであるFairOPTを紹介する。
我々のフレームワークは、後処理によるAI生成コンテンツ検出において、より堅牢な分類の道を開く。
論文 参考訳(メタデータ) (2025-02-06T21:58:48Z) - Knockoffs-SPR: Clean Sample Selection in Learning with Noisy Labels [56.81761908354718]
雑音ラベルを用いた学習のための,理論的に保証されたクリーンサンプル選択フレームワークを提案する。
Knockoffs-SPRは、標準的な教師付きトレーニングパイプラインのサンプル選択モジュールと見なすことができる。
さらに、ラベルなしデータとしてノイズデータのサポートを利用する半教師付きアルゴリズムと組み合わせる。
論文 参考訳(メタデータ) (2023-01-02T07:13:28Z) - Optimizing Partial Area Under the Top-k Curve: Theory and Practice [151.5072746015253]
トップk曲線下部分領域(AUTKC)と呼ばれる新しい計量法を開発した。
AUTKCはより優れた識別能力を持ち、ベイズ最適スコア関数は条件付き確率に対して正しいトップKランクを与えることができる。
提案手法を最適化するために,実証的なサロゲートリスク最小化フレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-03T11:09:13Z) - Coalesced Multi-Output Tsetlin Machines with Clause Sharing [7.754230120409288]
有限状態機械を用いてパターンを学習し、いくつかのベンチマークで競合精度と学習速度を得た。
句共有を導入し、複数のTMを1つにマージします。
MNIST, Fashion-MNIST, Kuzushiji-MNIST による実験結果から, CoTM は50ドルから1ドルで TM よりも有意に精度が高いことがわかった。
論文 参考訳(メタデータ) (2021-08-17T12:52:01Z) - Non-Parametric Adaptive Network Pruning [125.4414216272874]
アルゴリズム設計を簡略化するノンパラメトリックモデリングを導入。
顔認識コミュニティに触発されて,メッセージパッシングアルゴリズムを用いて,適応的な例示数を求める。
EPrunerは「重要」フィルタを決定する際にトレーニングデータへの依存を壊します。
論文 参考訳(メタデータ) (2021-01-20T06:18:38Z) - Massively Parallel and Asynchronous Tsetlin Machine Architecture
Supporting Almost Constant-Time Scaling [11.57427340680871]
Tsetlin Machines (TMs) は、最近、精度、メモリフットプリント、エネルギー、学習速度の点で競合性能を得た。
各TM節は特定のクラスに対して、または反対に投票し、多数決によって分類は解決された。
本稿では,節の評価を非同期化し,投票ボトルネックを解消する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-09-10T13:48:33Z) - Extending the Tsetlin Machine With Integer-Weighted Clauses for
Increased Interpretability [9.432068833600884]
解釈可能かつ正確であるマシンモデルを構築することは、多くのパターン認識問題に対して未解決の課題である。
Tsetlin Machines (TM)は、命題論理における共役節の線形結合を用いて、様々なベンチマーク上での競合性能を示した。
本稿では,TM節に整数重みを持たせることで,精度・解釈可能性の問題に対処する。
論文 参考訳(メタデータ) (2020-05-11T14:18:09Z) - A Regression Tsetlin Machine with Integer Weighted Clauses for Compact
Pattern Representation [9.432068833600884]
Regression Tsetlin Machine (RTM) は、最先端の非線形回帰モデルに干渉する解釈可能性の欠如に対処する。
整数重み付き節を導入し,計算コストをN倍に削減し,解釈可能性を高める。
6つの人工データセットを用いて整数重み付きRTMのポテンシャルを評価する。
論文 参考訳(メタデータ) (2020-02-04T12:06:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。