論文の概要: Differentiable TAN Structure Learning for Bayesian Network Classifiers
- arxiv url: http://arxiv.org/abs/2008.09566v1
- Date: Fri, 21 Aug 2020 16:22:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 20:43:11.126449
- Title: Differentiable TAN Structure Learning for Bayesian Network Classifiers
- Title(参考訳): ベイジアンネットワーク分類器のための微分可能なTAN構造学習
- Authors: Wolfgang Roth and Franz Pernkopf
- Abstract要約: 本研究では,個別な入力特徴を持つベイズ型ネットワーク分類器に対する木拡大型ネーブベイズ構造(TAN)の学習について検討する。
提案手法は,可能なグラフ構造の空間上で最適化を行う代わりに,グラフ構造上の分布を学習する。
提案手法はランダムなTAN構造とChow-Liu TAN構造を一貫して上回る。
- 参考スコア(独自算出の注目度): 19.30562170076368
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning the structure of Bayesian networks is a difficult combinatorial
optimization problem. In this paper, we consider learning of tree-augmented
naive Bayes (TAN) structures for Bayesian network classifiers with discrete
input features. Instead of performing a combinatorial optimization over the
space of possible graph structures, the proposed method learns a distribution
over graph structures. After training, we select the most probable structure of
this distribution. This allows for a joint training of the Bayesian network
parameters along with its TAN structure using gradient-based optimization. The
proposed method is agnostic to the specific loss and only requires that it is
differentiable. We perform extensive experiments using a hybrid
generative-discriminative loss based on the discriminative probabilistic
margin. Our method consistently outperforms random TAN structures and Chow-Liu
TAN structures.
- Abstract(参考訳): ベイズネットワークの構造を学ぶことは難しい組合せ最適化問題である。
本稿では,個別の入力特徴を持つベイズ型ネットワーク分類器のツリー拡張型ネーブベイズ構造(TAN)の学習について考察する。
提案手法は,可能なグラフ構造の空間上で組合せ最適化を行う代わりに,グラフ構造上の分布を学習する。
訓練後、この分布の最も可能性の高い構造を選択する。
これにより、勾配に基づく最適化を用いてベイズネットワークパラメータとTAN構造との合同トレーニングが可能になる。
提案手法は特定の損失に非依存であり,識別可能であることのみを必要とする。
判別確率マージンに基づくハイブリッド生成弁別損失を用いた広範囲実験を行った。
提案手法はランダムなTAN構造とChow-Liu TAN構造を一貫して上回る。
関連論文リスト
- Generalized Naive Bayes [0.0]
我々は、ネイブベイズ構造の拡張として、いわゆる一般化ネイブベイズ構造を導入する。
古典的ネーブベイズ(NB)によって決定される確率分布と同様に、この値が少なくともデータに適合することを証明する。
論文 参考訳(メタデータ) (2024-08-28T16:36:18Z) - SE-GSL: A General and Effective Graph Structure Learning Framework
through Structural Entropy Optimization [67.28453445927825]
グラフニューラルネットワーク(GNN)は、構造的データ学習のデファクトソリューションである。
既存のグラフ構造学習(GSL)フレームワークには、堅牢性と解釈性がない。
本稿では、構造エントロピーと符号化木に抽象化されたグラフ階層を通して、一般的なGSLフレームワークSE-GSLを提案する。
論文 参考訳(メタデータ) (2023-03-17T05:20:24Z) - Tree ensemble kernels for Bayesian optimization with known constraints
over mixed-feature spaces [54.58348769621782]
木アンサンブルはアルゴリズムチューニングやニューラルアーキテクチャ検索といったブラックボックス最適化タスクに適している。
ブラックボックス最適化にツリーアンサンブルを使うことの2つのよく知られた課題は、探索のためのモデル不確実性を効果的に定量化し、また、 (ii) ピースワイドな定値取得関数を最適化することである。
我々のフレームワークは、連続/離散的機能に対する非拘束ブラックボックス最適化のための最先端の手法と同様に、混合変数の特徴空間と既知の入力制約を組み合わせた問題の競合する手法よりも優れている。
論文 参考訳(メタデータ) (2022-07-02T16:59:37Z) - A Differentiable Approach to Combinatorial Optimization using Dataless
Neural Networks [20.170140039052455]
我々は、ソリューションを生成するニューラルネットワークのトレーニングにデータを必要としないという、根本的に異なるアプローチを提案する。
特に、最適化問題をニューラルネットワークに還元し、データレストレーニングスキームを用いて、それらのパラメータが関心の構造をもたらすように、ネットワークのパラメータを洗練する。
論文 参考訳(メタデータ) (2022-03-15T19:21:31Z) - Hybrid Bayesian network discovery with latent variables by scoring
multiple interventions [5.994412766684843]
離散データから構造学習を行うためのハイブリッドmFGS-BSアルゴリズムを提案する。
このアルゴリズムは潜伏変数の存在下で因果不整合を仮定し、部分アンセストラルグラフ(PAG)を生成する。
実験の結果,mFGS-BSは最先端技術と比較して構造学習精度が向上し,計算効率が向上した。
論文 参考訳(メタデータ) (2021-12-20T14:54:41Z) - A Sparse Structure Learning Algorithm for Bayesian Network
Identification from Discrete High-Dimensional Data [0.40611352512781856]
本稿では,高次元離散データから疎構造ベイズネットワークを学習する問題に対処する。
本稿では,空間特性とDAG特性を同時に満足するスコア関数を提案する。
具体的には,アルゴリズムを高次元データで効率的に動作させるため,最適化アルゴリズムに分散低減法を用いる。
論文 参考訳(メタデータ) (2021-08-21T12:21:01Z) - DiBS: Differentiable Bayesian Structure Learning [38.01659425023988]
ベイズ構造学習(DiBS)のための汎用的で完全に微分可能なフレームワークを提案する。
DiBSは潜在確率グラフ表現の連続空間で動作する。
既存の研究とは対照的に、DiBSは局所的な条件分布の形式に依存しない。
論文 参考訳(メタデータ) (2021-05-25T11:23:08Z) - ACDC: Weight Sharing in Atom-Coefficient Decomposed Convolution [57.635467829558664]
我々は,CNNにおいて,畳み込みカーネル間の構造正則化を導入する。
我々はCNNがパラメータや計算量を劇的に減らして性能を維持していることを示す。
論文 参考訳(メタデータ) (2020-09-04T20:41:47Z) - Fitting the Search Space of Weight-sharing NAS with Graph Convolutional
Networks [100.14670789581811]
サンプルサブネットワークの性能に適合するグラフ畳み込みネットワークを訓練する。
この戦略により、選択された候補集合において、より高いランク相関係数が得られる。
論文 参考訳(メタデータ) (2020-04-17T19:12:39Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z) - Learning with Differentiable Perturbed Optimizers [54.351317101356614]
本稿では,操作を微分可能で局所的に一定ではない操作に変換する手法を提案する。
提案手法は摂動に依拠し,既存の解法とともに容易に利用することができる。
本稿では,この枠組みが,構造化予測において発達した損失の族とどのように結びつくかを示し,学習課題におけるそれらの使用に関する理論的保証を与える。
論文 参考訳(メタデータ) (2020-02-20T11:11:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。