論文の概要: A Methodology for Transparent Logic-Based Classification Using a Multi-Task Convolutional Tsetlin Machine
- arxiv url: http://arxiv.org/abs/2510.01906v1
- Date: Thu, 02 Oct 2025 11:25:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:21.101727
- Title: A Methodology for Transparent Logic-Based Classification Using a Multi-Task Convolutional Tsetlin Machine
- Title(参考訳): マルチタスク畳み込み Tsetlin マシンを用いた透明論理型分類の一手法
- Authors: Mayur Kishor Shende, Ole-Christoffer Granmo, Runar Helin, Vladimir I. Zadorozhny, Rishad Shafik,
- Abstract要約: Tsetlin Machine(TM)は、有限状態オートマトンを用いて学習し、命題論理を用いてパターンを表現する新しい機械学習パラダイムである。
Convolutional TMは、MNIST、K-MNIST、F-MNIST、CIFAR-2といった様々なデータセットで同等のパフォーマンスを示している。
大規模複雑な学習環境においても,TMは解釈可能性を維持しながら,この深層学習モデルと競争力を発揮することを示す。
- 参考スコア(独自算出の注目度): 5.233478578871593
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Tsetlin Machine (TM) is a novel machine learning paradigm that employs finite-state automata for learning and utilizes propositional logic to represent patterns. Due to its simplistic approach, TMs are inherently more interpretable than learning algorithms based on Neural Networks. The Convolutional TM has shown comparable performance on various datasets such as MNIST, K-MNIST, F-MNIST and CIFAR-2. In this paper, we explore the applicability of the TM architecture for large-scale multi-channel (RGB) image classification. We propose a methodology to generate both local interpretations and global class representations. The local interpretations can be used to explain the model predictions while the global class representations aggregate important patterns for each class. These interpretations summarize the knowledge captured by the convolutional clauses, which can be visualized as images. We evaluate our methods on MNIST and CelebA datasets, using models that achieve 98.5\% accuracy on MNIST and 86.56\% F1-score on CelebA (compared to 88.07\% for ResNet50) respectively. We show that the TM performs competitively to this deep learning model while maintaining its interpretability, even in large-scale complex training environments. This contributes to a better understanding of TM clauses and provides insights into how these models can be applied to more complex and diverse datasets.
- Abstract(参考訳): Tsetlin Machine(TM)は、有限状態オートマトンを用いて学習し、命題論理を用いてパターンを表現する新しい機械学習パラダイムである。
単純化されたアプローチのため、TMはニューラルネットワークに基づく学習アルゴリズムよりも本質的に解釈可能である。
Convolutional TMは、MNIST、K-MNIST、F-MNIST、CIFAR-2といった様々なデータセットで同等のパフォーマンスを示している。
本稿では,大規模マルチチャネル(RGB)画像分類におけるTMアーキテクチャの適用性について検討する。
本稿では,局所的解釈とグローバルクラス表現の両方を生成する手法を提案する。
局所的な解釈はモデル予測を説明するのに使用でき、グローバルクラス表現は各クラスの重要なパターンを集約する。
これらの解釈は、畳み込み節によって得られた知識を要約し、画像として視覚化することができる。
我々は,MNIST と CelebA のデータセットに対して,MNIST の精度98.5 %,CelebA の F1 スコア86.56 % (ResNet50 の 88.07 %) のモデルを用いて評価を行った。
大規模複雑な学習環境においても,TMは解釈可能性を維持しながら,この深層学習モデルと競争力を発揮することを示す。
これはTM節の理解を深め、これらのモデルをより複雑で多様なデータセットに適用する方法についての洞察を提供する。
関連論文リスト
- Uncertainty Quantification in the Tsetlin Machine [11.592828269085082]
我々は不確実性定量化のための新しい手法を開発し、説明可能性をさらに高める。
確率スコアは任意のTM変種固有の性質であり、TM学習力学の解析によって導出される。
確率スコアの可視化により、TMはトレーニングデータ領域外の予測に自信がないことが明らかになった。
論文 参考訳(メタデータ) (2025-07-05T22:06:46Z) - QPM: Discrete Optimization for Globally Interpretable Image Classification [17.460420995034216]
本稿では,グローバルに解釈可能なクラス表現を学習する準プログラミング拡張モデル(QPM)を紹介する。
QPMは、他のクラスにも割り当てられる5つの機能のうち、非常に少ないバイナリの割り当てを持つすべてのクラスを表す。
結果として得られる最適割り当ては、様々な特徴を微調整するために使用され、それぞれが共有一般概念となる。
論文 参考訳(メタデータ) (2025-02-27T14:25:36Z) - How to Make LLMs Strong Node Classifiers? [70.14063765424012]
言語モデル(LM)は、グラフニューラルネットワーク(GNN)やグラフトランスフォーマー(GT)など、ドメイン固有のモデルの優位性に挑戦している。
本稿では,ノード分類タスクにおける最先端(SOTA)GNNに匹敵する性能を実現するために,既製のLMを有効活用する手法を提案する。
論文 参考訳(メタデータ) (2024-10-03T08:27:54Z) - MOCA: Self-supervised Representation Learning by Predicting Masked Online Codebook Assignments [72.6405488990753]
自己教師付き学習は、ビジョントランスフォーマーネットワークの欲求を軽減できる。
所望のプロパティを統一する単段および単段のMOCAを提案する。
我々は,様々な評価プロトコルにおいて,低照度設定と強力な実験結果に対して,最先端の新たな結果を得る。
論文 参考訳(メタデータ) (2023-07-18T15:46:20Z) - Experimental Observations of the Topology of Convolutional Neural
Network Activations [2.4235626091331737]
トポロジカル・データ解析は、複雑な構造のコンパクトでノイズ・ロバストな表現を提供する。
ディープニューラルネットワーク(DNN)は、モデルアーキテクチャによって定義された一連の変換に関連する数百万のパラメータを学習する。
本稿では,画像分類に使用される畳み込みニューラルネットワークの解釈可能性に関する知見を得る目的で,TDAの最先端技術を適用した。
論文 参考訳(メタデータ) (2022-12-01T02:05:44Z) - pRSL: Interpretable Multi-label Stacking by Learning Probabilistic Rules [0.0]
本稿では,確率論的命題論理則と信念伝播を用いた確率論的ルールスタックリング(pRSL)を提案し,その基礎となる分類器の予測と組み合わせる。
精度と近似推論と学習のためのアルゴリズムを導出し、様々なベンチマークデータセット上でpRSLが最先端の性能に達することを示す。
論文 参考訳(メタデータ) (2021-05-28T14:06:21Z) - How Fine-Tuning Allows for Effective Meta-Learning [50.17896588738377]
MAMLライクなアルゴリズムから派生した表現を解析するための理論的フレームワークを提案する。
我々は,勾配降下による微調整により得られる最良予測器のリスク境界を提示し,アルゴリズムが共有構造を有効活用できることを実証する。
この分離の結果、マイニングベースのメソッド、例えばmamlは、少数ショット学習における"frozen representation"目標を持つメソッドよりも優れている。
論文 参考訳(メタデータ) (2021-05-05T17:56:00Z) - Region Comparison Network for Interpretable Few-shot Image
Classification [97.97902360117368]
新しいクラスのモデルをトレーニングするために、ラベル付きサンプルの限られた数だけを効果的に活用するための画像分類が提案されている。
本研究では,領域比較ネットワーク (RCN) と呼ばれる距離学習に基づく手法を提案する。
また,タスクのレベルからカテゴリへの解釈可能性の一般化も提案する。
論文 参考訳(メタデータ) (2020-09-08T07:29:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。