論文の概要: Learning Minimalistic Tsetlin Machine Clauses with Markov
Boundary-Guided Pruning
- arxiv url: http://arxiv.org/abs/2309.06315v1
- Date: Tue, 12 Sep 2023 15:27:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-13 12:22:57.546144
- Title: Learning Minimalistic Tsetlin Machine Clauses with Markov
Boundary-Guided Pruning
- Title(参考訳): マルコフ境界誘導プルーニングによる最小限のTsetlinマシンクローズの学習
- Authors: Ole-Christoffer Granmo and Per-Arne Andersen and Lei Jiao and Xuan
Zhang and Christian Blakely and Tor Tveit
- Abstract要約: 我々は、タイプIとタイプIIのフィードバックを補う新しいTsetlin Machineフィードバックスキームを提案する。
このスキームでは、小説『Finite State Automaton - a Context-Specific Independence Automaton』が紹介されている。
提案手法を実証的に検討し,マルコフ境界を見つけるためにコンテキスト固有の独立性をいかに活用できるかを示す。
- 参考スコア(独自算出の注目度): 15.426786934284141
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A set of variables is the Markov blanket of a random variable if it contains
all the information needed for predicting the variable. If the blanket cannot
be reduced without losing useful information, it is called a Markov boundary.
Identifying the Markov boundary of a random variable is advantageous because
all variables outside the boundary are superfluous. Hence, the Markov boundary
provides an optimal feature set. However, learning the Markov boundary from
data is challenging for two reasons. If one or more variables are removed from
the Markov boundary, variables outside the boundary may start providing
information. Conversely, variables within the boundary may stop providing
information. The true role of each candidate variable is only manifesting when
the Markov boundary has been identified. In this paper, we propose a new
Tsetlin Machine (TM) feedback scheme that supplements Type I and Type II
feedback. The scheme introduces a novel Finite State Automaton - a
Context-Specific Independence Automaton. The automaton learns which features
are outside the Markov boundary of the target, allowing them to be pruned from
the TM during learning. We investigate the new scheme empirically, showing how
it is capable of exploiting context-specific independence to find Markov
boundaries. Further, we provide a theoretical analysis of convergence. Our
approach thus connects the field of Bayesian networks (BN) with TMs,
potentially opening up for synergies when it comes to inference and learning,
including TM-produced Bayesian knowledge bases and TM-based Bayesian inference.
- Abstract(参考訳): 変数の集合がランダム変数のマルコフ毛布であり、変数を予測するのに必要な情報をすべて含んでいる場合である。
有用な情報を失うことなく毛布を小さくすることができなければ、マルコフ境界と呼ばれる。
ランダム変数のマルコフ境界の同定は、境界外にある全ての変数が過剰であるため有利である。
したがって、マルコフ境界は最適な特徴集合を提供する。
しかし、データからマルコフ境界を学ぶことは2つの理由から難しい。
マルコフ境界から1つ以上の変数が削除されると、境界外の変数が情報を提供し始める。
逆に、境界内の変数は情報の提供を止めることができる。
各候補変数の真の役割は、マルコフ境界が特定されたときにのみ現れる。
本稿では,タイプIとタイプIIのフィードバックを補完する新しいTsetlin Machine (TM) フィードバックスキームを提案する。
このスキームは、コンテキスト固有の独立オートマトンである新しい有限状態オートマトンを導入する。
オートマトンは、ターゲットのマルコフ境界の外側にあるどの特徴を学習し、学習中にtmから刈り取ることができる。
新たな手法を実証的に検討し,コンテキスト固有の独立性を活用し,マルコフ境界を求める方法を示した。
さらに,収束の理論的解析を行う。
提案手法はベイジアンネットワーク(BN)の分野とTMを結びつけるもので,TM生成ベイジアン知識ベースやTMベースベイジアン推論など,推論や学習において相乗効果が期待できる。
関連論文リスト
- Repurposing Stable Diffusion Attention for Training-Free Unsupervised Interactive Segmentation [1.878433493707693]
インタラクティブなポイントプロンプトベースの画像の最近の進歩は、高品質なセマンティックラベルを得るための手作業を大幅に削減する。
本稿では, 安定拡散の自己注意のみに基づく, 教師なし, トレーニング不要な新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-11-15T18:29:59Z) - Lower Bounds on the Bayesian Risk via Information Measures [17.698319441265223]
マルコフの不等式を介して双対を上界にすることで、あらゆる情報測度でリスクを低くすることができることを示す。
サンプル数における下位境界の挙動は、情報尺度の選択によって影響される。
観測結果が民営化される場合、強いデータ・プロシーシングの不等式により、強い不合理性が得られる。
論文 参考訳(メタデータ) (2023-03-22T12:09:12Z) - Stochastic Gradient Descent under Markovian Sampling Schemes [3.04585143845864]
マルコフ型サンプリングスキームにのみアクセス可能なバニラ勾配勾配の変動について検討する。
我々は、基礎となるマルコフ連鎖で可能な最小限の制限的な仮定の下で収束率を得ることに焦点をあてる。
論文 参考訳(メタデータ) (2023-02-28T09:18:00Z) - Breaking the Curse of Multiagents in a Large State Space: RL in Markov
Games with Independent Linear Function Approximation [56.715186432566576]
そこで本稿では,大規模状態空間と多数のエージェントを用いた強化学習のための新しいモデルである独立線形マルコフゲームを提案する。
我々は,各エージェントの関数クラスの複雑性にのみ対応して,サンプル境界複雑性を持つ相関平衡 (CCE) とマルコフ相関平衡 (CE) を学習するための新しいアルゴリズムを設計する。
提案アルゴリズムは,1)複数のエージェントによる非定常性に対処するためのポリシーリプレイと,機能近似の利用,2)マルコフ均衡の学習とマルコフゲームにおける探索の分離という,2つの重要な技術革新に依存している。
論文 参考訳(メタデータ) (2023-02-07T18:47:48Z) - Identifiable Latent Causal Content for Domain Adaptation under Latent Covariate Shift [82.14087963690561]
マルチソースドメイン適応(MSDA)は、ラベル付き対象ドメインのラベル予測関数を学習する際の課題に対処する。
本稿では,潜在コンテンツ変数と潜時スタイル変数とともに,ドメイン間の潜時雑音を導入し,複雑な因果生成モデルを提案する。
提案手法は、シミュレーションと実世界の両方のデータセットに対して、例外的な性能と有効性を示す。
論文 参考訳(メタデータ) (2022-08-30T11:25:15Z) - Markov Abstractions for PAC Reinforcement Learning in Non-Markov
Decision Processes [90.53326983143644]
マルコフの抽象概念は強化学習中に学習可能であることを示す。
提案手法は,採用アルゴリズムがPACを保証する場合にPACを保証する。
論文 参考訳(メタデータ) (2022-04-29T16:53:00Z) - Fundamental limits for learning hidden Markov model parameters [2.66418345185993]
学習可能なマルコフモデル(HMM)と学習不可能な隠れマルコフモデル(HMM)のフロンティアについて検討する。
HMMは、未知の集団から来る依存データをクラスタリングするための柔軟なツールである。
論文 参考訳(メタデータ) (2021-06-24T12:02:33Z) - Navigating to the Best Policy in Markov Decision Processes [68.8204255655161]
マルコフ決定過程における純粋探索問題について検討する。
エージェントはアクションを逐次選択し、結果のシステム軌道から可能な限り早くベストを目標とする。
論文 参考訳(メタデータ) (2021-06-05T09:16:28Z) - Provably End-to-end Label-Noise Learning without Anchor Points [118.97592870124937]
本稿では,アンカーポイントを使わずにラベルノイズ学習を実現するためのエンドツーエンドフレームワークを提案する。
提案フレームワークでは,クリーンなクラス後確率が十分に分散している場合,遷移行列を同定できる。
論文 参考訳(メタデータ) (2021-02-04T03:59:37Z) - Fundamental Limits and Tradeoffs in Invariant Representation Learning [99.2368462915979]
多くの機械学習アプリケーションは、2つの競合する目標を達成する表現を学習する。
ミニマックスゲーム理論の定式化は、精度と不変性の基本的なトレードオフを表す。
分類と回帰の双方において,この一般的かつ重要な問題を情報論的に解析する。
論文 参考訳(メタデータ) (2020-12-19T15:24:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。