論文の概要: Uncertainty Quantification in the Tsetlin Machine
- arxiv url: http://arxiv.org/abs/2507.04175v1
- Date: Sat, 05 Jul 2025 22:06:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:35.05293
- Title: Uncertainty Quantification in the Tsetlin Machine
- Title(参考訳): Tsetlin マシンの不確かさの定量化
- Authors: Runar Helin, Ole-Christoffer Granmo, Mayur Kishor Shende, Lei Jiao, Vladimir I. Zadorozhny, Kunal Ganesh Dumbre, Rishad Shafik, Alex Yakovlev,
- Abstract要約: 我々は不確実性定量化のための新しい手法を開発し、説明可能性をさらに高める。
確率スコアは任意のTM変種固有の性質であり、TM学習力学の解析によって導出される。
確率スコアの可視化により、TMはトレーニングデータ領域外の予測に自信がないことが明らかになった。
- 参考スコア(独自算出の注目度): 11.592828269085082
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data modeling using Tsetlin machines (TMs) is all about building logical rules from the data features. The decisions of the model are based on a combination of these logical rules. Hence, the model is fully transparent and it is possible to get explanations of its predictions. In this paper, we present a probability score for TM predictions and develop new techniques for uncertainty quantification to increase the explainability further. The probability score is an inherent property of any TM variant and is derived through an analysis of the TM learning dynamics. Simulated data is used to show a clear connection between the learned TM probability scores and the underlying probabilities of the data. A visualization of the probability scores also reveals that the TM is less confident in its predictions outside the training data domain, which contrasts the typical extrapolation phenomenon found in Artificial Neural Networks. The paper concludes with an application of the uncertainty quantification techniques on an image classification task using the CIFAR-10 dataset, where they provide new insights and suggest possible improvements to current TM image classification models.
- Abstract(参考訳): Tsetlin Machine(TM)を使用したデータモデリングは、データ機能から論理的なルールを構築するためのものだ。
モデルの判断は、これらの論理的ルールの組み合わせに基づいている。
したがって、モデルは完全に透明であり、その予測についての説明を得ることが可能である。
本稿では、TM予測の確率スコアを示し、不確実性定量化のための新しい手法を開発し、説明可能性をさらに高める。
確率スコアは任意のTM変種固有の性質であり、TM学習力学の解析によって導出される。
シミュレーションデータを用いて、学習したTM確率スコアとデータの基礎となる確率との明確な関係を示す。
確率スコアの可視化はまた、TMがトレーニングデータ領域外の予測に自信を欠いていることも示しており、これはニューラルネットワークで見られる典型的な外挿現象とは対照的である。
本論文は,CIFAR-10データセットを用いた画像分類作業における不確実性定量化手法の適用により,新たな洞察を与え,現在のTM画像分類モデルの改善の可能性を提案する。
関連論文リスト
- Continuous Visual Autoregressive Generation via Score Maximization [69.67438563485887]
本稿では,ベクトル量子化なしで直接視覚的自己回帰生成を可能にする連続VARフレームワークを提案する。
このフレームワークの中で必要なのは、厳密な適切なスコアを選択し、最適化のトレーニング目標として設定することだけです。
論文 参考訳(メタデータ) (2025-05-12T17:58:14Z) - The Probabilistic Tsetlin Machine: A Novel Approach to Uncertainty Quantification [1.0499611180329802]
本稿では,不確実性定量化のための堅牢で信頼性の高い,解釈可能なアプローチを実現することを目的とした,確率的テセリンマシン(PTM)フレームワークを提案する。
オリジナルのTMとは異なり、PTMは全ての節にわたって各Tsetlin Automaton(TA)の各状態に留まる確率を学習する。
推論中、TAは学習された確率分布に基づいて状態のサンプリングによって行動を決定する。
論文 参考訳(メタデータ) (2024-10-23T13:20:42Z) - LaPLACE: Probabilistic Local Model-Agnostic Causal Explanations [1.0370398945228227]
本稿では,機械学習モデルに対する確率論的原因・効果説明を提供するLaPLACE-Explainerを紹介する。
LaPLACE-Explainerコンポーネントはマルコフ毛布の概念を利用して、関連する特徴と非関連する特徴の間の統計的境界を確立する。
提案手法は,LIME と SHAP の局所的精度と特徴の整合性の観点から,因果的説明と性能を向上する。
論文 参考訳(メタデータ) (2023-10-01T04:09:59Z) - A Data-Transparent Probabilistic Model of Temporal Propositional Abstraction [0.0]
標準確率モデルは、データの不足、大きな仮説空間、データの透明性の低下など、基本的な課題に直面している。
本稿では,データ駆動型時間命題推論の新しい確率論的モデルを提案する。
我々は,本モデルが高次,すなわち全メモリ,マルコフ連鎖と等価であることを示し,隠れ変数と観測変数の区別を必要としない。
論文 参考訳(メタデータ) (2023-01-20T10:55:49Z) - Uncertainty Modeling for Out-of-Distribution Generalization [56.957731893992495]
特徴統計を適切に操作することで、ディープラーニングモデルの一般化能力を向上させることができると論じる。
一般的な手法では、特徴統計を学習した特徴から測定された決定論的値とみなすことが多い。
我々は、学習中に合成された特徴統計を用いて、領域シフトの不確かさをモデル化することにより、ネットワークの一般化能力を向上させる。
論文 参考訳(メタデータ) (2022-02-08T16:09:12Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Bayesian Imaging With Data-Driven Priors Encoded by Neural Networks:
Theory, Methods, and Algorithms [2.266704469122763]
本稿では,事前知識がトレーニングデータとして利用可能である逆問題に対して,ベイズ推定を行う新しい手法を提案する。
容易に検証可能な条件下で,関連する後方モーメントの存在と適切性を確立する。
モデル精度解析により、データ駆動モデルによって報告されるベイズ確率は、頻繁な定義の下で著しく正確であることが示された。
論文 参考訳(メタデータ) (2021-03-18T11:34:08Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z) - Semi-Supervised Learning with Normalizing Flows [54.376602201489995]
FlowGMMは、フローの正規化を伴う生成半教師付き学習におけるエンドツーエンドのアプローチである。
我々は AG-News や Yahoo Answers のテキストデータなど,幅広いアプリケーションに対して有望な結果を示す。
論文 参考訳(メタデータ) (2019-12-30T17:36:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。