論文の概要: Generating Bayesian Network Models from Data Using Tsetlin Machines
- arxiv url: http://arxiv.org/abs/2305.10538v1
- Date: Wed, 17 May 2023 19:50:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-19 18:18:15.454208
- Title: Generating Bayesian Network Models from Data Using Tsetlin Machines
- Title(参考訳): tsetlinマシンを用いたデータからのベイズネットワークモデルの生成
- Authors: Christian D. Blakely
- Abstract要約: 本稿では,Tsetlin Machines を用いたネットワーク構造探索手法を提案する。
データセットが与えられた場合、BNを使用するためのハードルのひとつは、相関や因果関係に関わらず、依存関係を適切に処理するデータからネットワークグラフを構築することだ。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bayesian networks (BN) are directed acyclic graphical (DAG) models that have
been adopted into many fields for their strengths in transparency,
interpretability, probabilistic reasoning, and causal modeling. Given a set of
data, one hurdle towards using BNs is in building the network graph from the
data that properly handles dependencies, whether correlated or causal. In this
paper, we propose an initial methodology for discovering network structures
using Tsetlin Machines.
- Abstract(参考訳): ベイジアンネットワーク(BN)は、透明性、解釈可能性、確率論的推論、因果モデリングにおいて多くの分野に採用されている非循環型グラフィカル(DAG)モデルである。
データセットが与えられた場合、BNを使用するためのハードルのひとつは、相関や因果関係に関わらず、依存関係を適切に処理するデータからネットワークグラフを構築することだ。
本稿では,tsetlinマシンを用いたネットワーク構造発見のための初期手法を提案する。
関連論文リスト
- Escaping the Forest: Sparse Interpretable Neural Networks for Tabular Data [0.0]
我々のモデルであるSparse TABular NET や sTAB-Net がツリーベースモデルよりも効果的であることを示す。
SHAPのようなポストホックメソッドよりも優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-10-23T10:50:07Z) - Scalable Weibull Graph Attention Autoencoder for Modeling Document Networks [50.42343781348247]
解析条件後部を解析し,推論精度を向上させるグラフポアソン因子分析法(GPFA)を開発した。
また,GPFAを多層構造に拡張したグラフPoisson gamma belief Network (GPGBN) を用いて,階層的な文書関係を複数の意味レベルで捉える。
本モデルでは,高品質な階層型文書表現を抽出し,様々なグラフ解析タスクにおいて有望な性能を実現する。
論文 参考訳(メタデータ) (2024-10-13T02:22:14Z) - Sum-Product-Set Networks: Deep Tractable Models for Tree-Structured Graphs [0.0]
木構造グラフデータから木構造グラフデータへの確率回路の拡張である和積集合ネットワークを提案する。
我々は,ニューラルネットワークに基づく様々な抽出可能なモデルに対して,抽出可能なモデルが比較可能であることを実証した。
論文 参考訳(メタデータ) (2024-08-14T09:13:27Z) - Distributed Learning over Networks with Graph-Attention-Based
Personalization [49.90052709285814]
分散ディープラーニングのためのグラフベースパーソナライズアルゴリズム(GATTA)を提案する。
特に、各エージェントのパーソナライズされたモデルは、グローバルな部分とノード固有の部分で構成される。
グラフ内の各エージェントを1つのノードとして扱うことにより、ノード固有のパラメータを特徴として扱うことにより、グラフアテンション機構の利点を継承することができる。
論文 参考訳(メタデータ) (2023-05-22T13:48:30Z) - GrannGAN: Graph annotation generative adversarial networks [72.66289932625742]
本稿では,高次元分布をモデル化し,グラフスケルトンと整合した複雑な関係特徴構造を持つデータの新しい例を生成することの問題点を考察する。
提案するモデルは,タスクを2つのフェーズに分割することで,各データポイントのグラフ構造に制約されたデータ特徴を生成する問題に対処する。
第一に、与えられたグラフのノードに関連する機能の分布をモデル化し、第二に、ノードのフィーチャに条件付きでエッジ機能を補完する。
論文 参考訳(メタデータ) (2022-12-01T11:49:07Z) - GCondNet: A Novel Method for Improving Neural Networks on Small High-Dimensional Tabular Data [14.124731264553889]
我々はGCondNetを提案し、データに存在する暗黙構造を活用してニューラルネットワークを強化する。
GCondNetはデータの高次元性を利用して、基礎となる予測ネットワークの性能を向上させる。
GCondNetが実世界の12のデータセットに対して有効であることを示す。
論文 参考訳(メタデータ) (2022-11-11T16:13:34Z) - Dynamic Graph Message Passing Networks for Visual Recognition [112.49513303433606]
長距離依存のモデリングは、コンピュータビジョンにおけるシーン理解タスクに不可欠である。
完全連結グラフはそのようなモデリングには有益であるが、計算オーバーヘッドは禁じられている。
本稿では,計算複雑性を大幅に低減する動的グラフメッセージパッシングネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-20T14:41:37Z) - Bayesian Structure Learning with Generative Flow Networks [85.84396514570373]
ベイズ構造学習では、データから有向非巡回グラフ(DAG)上の分布を推定することに興味がある。
近年,ジェネレーティブ・フロー・ネットワーク(GFlowNets)と呼ばれる確率モデルのクラスが,ジェネレーティブ・モデリングの一般的なフレームワークとして紹介されている。
DAG-GFlowNetと呼ばれる本手法は,DAGよりも後方の正確な近似を提供する。
論文 参考訳(メタデータ) (2022-02-28T15:53:10Z) - Latent Network Embedding via Adversarial Auto-encoders [15.656374849760734]
本稿では,逆グラフ自動エンコーダに基づく潜在ネットワーク埋め込みモデルを提案する。
この枠組みの下では、潜伏構造を発見する問題は、部分的な観測から潜伏関係を推測するものとして定式化されている。
論文 参考訳(メタデータ) (2021-09-30T16:49:46Z) - An Introduction to Robust Graph Convolutional Networks [71.68610791161355]
本論文では, 誤りのある単一ビューあるいは複数ビューのデータに対して, 新たなロバストグラフ畳み込みニューラルネットワークを提案する。
従来のグラフ畳み込みネットワークにAutoencodersを介して余分なレイヤを組み込むことで、典型的なエラーモデルを明示的に特徴付けおよび処理します。
論文 参考訳(メタデータ) (2021-03-27T04:47:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。