論文の概要: Scalable Bayesian Network Structure Learning Using Tsetlin Machine to Constrain the Search Space
- arxiv url: http://arxiv.org/abs/2511.19273v1
- Date: Mon, 24 Nov 2025 16:23:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:25.312503
- Title: Scalable Bayesian Network Structure Learning Using Tsetlin Machine to Constrain the Search Space
- Title(参考訳): Tsetlin Machine を用いたスケーラブルベイズネットワーク構造学習による検索空間の制約
- Authors: Kunal Dumbre, Lei Jiao, Ole-Christoffer Granmo,
- Abstract要約: PCアルゴリズムはベイズネットワークの構造を学習するための因果推論において広く用いられている手法である。
その人気にもかかわらず、PCアルゴリズムは特にデータセットのサイズが大きくなるにつれて、かなりの時間的複雑さに悩まされる。
本稿では,より効率的にベイズ構造を構築するために,Tsetlin Machine (TM) を利用する新しい手法を提案する。
- 参考スコア(独自算出の注目度): 10.753354249346073
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The PC algorithm is a widely used method in causal inference for learning the structure of Bayesian networks. Despite its popularity, the PC algorithm suffers from significant time complexity, particularly as the size of the dataset increases, which limits its applicability in large-scale real-world problems. In this study, we propose a novel approach that utilises the Tsetlin Machine (TM) to construct Bayesian structures more efficiently. Our method leverages the most significant literals extracted from the TM and performs conditional independence (CI) tests on these selected literals instead of the full set of variables, resulting in a considerable reduction in computational time. We implemented our approach and compared it with various state-of-the-art methods. Our evaluation includes categorical datasets from the bnlearn repository, such as Munin1, Hepar2. The findings indicate that the proposed TM-based method not only reduces computational complexity but also maintains competitive accuracy in causal discovery, making it a viable alternative to traditional PC algorithm implementations by offering improved efficiency without compromising performance.
- Abstract(参考訳): PCアルゴリズムはベイズネットワークの構造を学習するための因果推論において広く用いられている手法である。
その人気にもかかわらず、PCアルゴリズムは、特にデータセットのサイズが大きくなると、大きな時間的複雑さに悩まされる。
本研究では,より効率的にベイズ構造を構築するために,Tsetlin Machine (TM) を利用した新しい手法を提案する。
本手法では,TMから抽出した最も重要なリテラルを活用し,各リテラルに対する条件独立性(CI)テストを行う。
提案手法を実装し, 各種の最先端手法と比較した。
我々の評価には, Munin1, Hepar2 などの bnlearn リポジトリの分類的データセットが含まれる。
この結果から,提案手法は計算複雑性を低減させるだけでなく,因果発見における競合精度も維持し,性能を損なうことなく効率を向上し,従来のPCアルゴリズムの代替となる可能性が示唆された。
関連論文リスト
- Score-matching-based Structure Learning for Temporal Data on Networks [17.166362605356074]
因果発見は経験的データと背景知識から因果関係を確立するための重要な第一歩である。
現在のスコアマッチングベースのアルゴリズムは、主に独立および同一に分散された(d.d.)データを分析するために設計されている。
我々はDAGの葉ノードのための新しい親フィンディングサブルーチンを開発し、プロセスの最も時間を要する部分である刈り込みステップを著しく加速した。
論文 参考訳(メタデータ) (2024-12-10T12:36:35Z) - An Efficient Procedure for Computing Bayesian Network Structure Learning [0.9208007322096532]
本稿では,段階的にレベル付けされたスコアリング手法に基づいて,グローバルに最適なベイズネットワーク構造探索アルゴリズムを提案する。
実験結果から,本手法はメモリのみを使用する場合,ピークメモリ使用量を削減するだけでなく,計算効率も向上することが示された。
論文 参考訳(メタデータ) (2024-07-24T07:59:18Z) - Machine Learning Training Optimization using the Barycentric Correction
Procedure [0.0]
本研究では,機械学習アルゴリズムとBCP(Barycentric correct procedure)と呼ばれる効率的な手法を組み合わせることを提案する。
この組み合わせによって、実データと合成データの時間に関する大きな利点が得られ、インスタンス数や次元が増加すると精度を損なうことなく得られることがわかった。
論文 参考訳(メタデータ) (2024-03-01T13:56:36Z) - An Efficient Algorithm for Clustered Multi-Task Compressive Sensing [60.70532293880842]
クラスタ化マルチタスク圧縮センシングは、複数の圧縮センシングタスクを解決する階層モデルである。
このモデルに対する既存の推論アルゴリズムは計算コストが高く、高次元ではうまくスケールしない。
本稿では,これらの共分散行列を明示的に計算する必要をなくし,モデル推論を大幅に高速化するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-09-30T15:57:14Z) - Scalable Batch Acquisition for Deep Bayesian Active Learning [70.68403899432198]
ディープラーニングでは、各ステップでマークアップする複数の例を選択することが重要です。
BatchBALDのような既存のソリューションでは、多くの例を選択する際に大きな制限がある。
本稿では,より計算効率のよいLarge BatchBALDアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-01-13T11:45:17Z) - Efficient Dataset Distillation Using Random Feature Approximation [109.07737733329019]
本稿では,ニューラルネットワークガウス過程(NNGP)カーネルのランダム特徴近似(RFA)を用いた新しいアルゴリズムを提案する。
我々のアルゴリズムは、KIP上で少なくとも100倍のスピードアップを提供し、1つのGPUで実行できる。
RFA蒸留 (RFAD) と呼ばれる本手法は, 大規模データセットの精度において, KIP や他のデータセット凝縮アルゴリズムと競合して動作する。
論文 参考訳(メタデータ) (2022-10-21T15:56:13Z) - A Sparse Structure Learning Algorithm for Bayesian Network
Identification from Discrete High-Dimensional Data [0.40611352512781856]
本稿では,高次元離散データから疎構造ベイズネットワークを学習する問題に対処する。
本稿では,空間特性とDAG特性を同時に満足するスコア関数を提案する。
具体的には,アルゴリズムを高次元データで効率的に動作させるため,最適化アルゴリズムに分散低減法を用いる。
論文 参考訳(メタデータ) (2021-08-21T12:21:01Z) - Dual Optimization for Kolmogorov Model Learning Using Enhanced Gradient
Descent [8.714458129632158]
コルモゴロフモデル(コルモゴロフモデル、英: Kolmogorov model、KM)は、確率変数の集合の基本的な確率構造を学ぶための解釈可能で予測可能な表現手法である。
正規化双対最適化と拡張勾配降下法(GD)を併用した計算スケーラブルなKM学習アルゴリズムを提案する。
提案したKM学習アルゴリズムを用いた論理的関係マイニングの精度は80%以上である。
論文 参考訳(メタデータ) (2021-07-11T10:33:02Z) - Sparse PCA via $l_{2,p}$-Norm Regularization for Unsupervised Feature
Selection [138.97647716793333]
再構成誤差を$l_2,p$ノルム正規化と組み合わせることで,単純かつ効率的な特徴選択手法を提案する。
提案する非教師付きモデルを解くための効率的な最適化アルゴリズムを提案し,アルゴリズムの収束と計算の複雑さを理論的に解析する。
論文 参考訳(メタデータ) (2020-12-29T04:08:38Z) - A Constraint-Based Algorithm for the Structural Learning of
Continuous-Time Bayesian Networks [70.88503833248159]
連続時間ベイズネットワークの構造を学習するための制約に基づく最初のアルゴリズムを提案する。
我々は,条件付き独立性を確立するために提案した,異なる統計的テストと基礎となる仮説について論じる。
論文 参考訳(メタデータ) (2020-07-07T07:34:09Z) - FedPD: A Federated Learning Framework with Optimal Rates and Adaptivity
to Non-IID Data [59.50904660420082]
フェデレートラーニング(FL)は、分散データから学ぶための一般的なパラダイムになっています。
クラウドに移行することなく、さまざまなデバイスのデータを効果的に活用するために、Federated Averaging(FedAvg)などのアルゴリズムでは、"Computation then aggregate"(CTA)モデルを採用している。
論文 参考訳(メタデータ) (2020-05-22T23:07:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。