論文の概要: Strudel: Learning Structured-Decomposable Probabilistic Circuits
- arxiv url: http://arxiv.org/abs/2007.09331v2
- Date: Wed, 2 Sep 2020 05:16:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 05:16:52.280299
- Title: Strudel: Learning Structured-Decomposable Probabilistic Circuits
- Title(参考訳): strudel: 構造化分解可能な確率回路の学習
- Authors: Meihua Dang, Antonio Vergari, Guy Van den Broeck
- Abstract要約: Strudelは構造化分解可能なPCのためのシンプルで高速で正確な学習アルゴリズムである。
より正確なシングルPCモデルをより少ないイテレーションで提供し、PCのアンサンブルを構築する際に学習を劇的にスケールする。
標準密度推定ベンチマークと挑戦的推論シナリオにこれらの利点を示す。
- 参考スコア(独自算出の注目度): 37.153542210716004
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Probabilistic circuits (PCs) represent a probability distribution as a
computational graph. Enforcing structural properties on these graphs guarantees
that several inference scenarios become tractable. Among these properties,
structured decomposability is a particularly appealing one: it enables the
efficient and exact computations of the probability of complex logical
formulas, and can be used to reason about the expected output of certain
predictive models under missing data. This paper proposes Strudel, a simple,
fast and accurate learning algorithm for structured-decomposable PCs. Compared
to prior work for learning structured-decomposable PCs, Strudel delivers more
accurate single PC models in fewer iterations, and dramatically scales learning
when building ensembles of PCs. It achieves this scalability by exploiting
another structural property of PCs, called determinism, and by sharing the same
computational graph across mixture components. We show these advantages on
standard density estimation benchmarks and challenging inference scenarios.
- Abstract(参考訳): 確率回路(PC)は確率分布を計算グラフとして表す。
これらのグラフに構造的性質を強制することは、いくつかの推論シナリオが扱いやすいことを保証する。
複雑な論理公式の確率の効率的かつ正確な計算を可能にし、欠落したデータの下で特定の予測モデルの期待される出力を推測するのに使うことができる。
本稿では,構造化分解可能なPCの簡易かつ高速かつ高精度な学習アルゴリズムであるStrudelを提案する。
構造化分解可能なPCを学習する以前の作業と比較して、Strudelはより正確なシングルPCモデルをより少ないイテレーションで提供し、PCのアンサンブルを構築する際に学習を劇的にスケールする。
このスケーラビリティは、決定論(Determinism)と呼ばれるPCの構造的特性を利用し、混合成分間で同じ計算グラフを共有することによって達成される。
標準密度推定ベンチマークと挑戦的推論シナリオにこれらの利点を示す。
関連論文リスト
- On the Expressive Power of Tree-Structured Probabilistic Circuits [8.160496835449157]
我々は、$n$変数に対して、同じ確率分布を計算する同値木の大きさに準多項式上界$nO(log n)$が存在することを示す。
また,木面の深さ制限を考慮すれば,木面とDAG構造PCとの間には超ポリノミカルな分離が存在することを示す。
論文 参考訳(メタデータ) (2024-10-07T19:51:30Z) - Compositional Probabilistic and Causal Inference using Tractable Circuit
Models [20.07977560803858]
我々は、構造化分解可能なPCにおける(マルジナル)決定性の新規な定式化であるmd-vtreesを紹介する。
我々は,PC上でのバックドア調整などの因果推論クエリに対して,最初のpolytimeアルゴリズムを導出する。
論文 参考訳(メタデータ) (2023-04-17T13:48:16Z) - Bayesian Structure Scores for Probabilistic Circuits [13.441379161477272]
確率回路(PC)は、抽出可能な推論を伴う確率の顕著な表現である。
我々は、決定論的PCのためのベイズ構造スコア、すなわちパラメータを疎外した構造可能性を開発する。
ログのように適合するトレーニング時間とモデルの間には、良好なトレードオフが達成されます。
論文 参考訳(メタデータ) (2023-02-23T16:12:19Z) - Structural Learning of Probabilistic Sentential Decision Diagrams under
Partial Closed-World Assumption [127.439030701253]
確率感性決定図は構造化分解可能な回路のクラスである。
本稿では,回路の論理的基盤を暗黙的に提供する部分閉世界仮定に基づく新しいスキームを提案する。
予備実験では、提案手法がトレーニングデータに適切に適合し、基礎となる論理的基盤と整合性を維持した上で、テストデータによく適合することを示した。
論文 参考訳(メタデータ) (2021-07-26T12:01:56Z) - Tractable Regularization of Probabilistic Circuits [31.841838579553034]
確率回路(PC)は確率的モデリングのための有望な道である。
我々は,PCのトラクタビリティを活かしたデータソフト化とエントロピー正規化という2つの直感的な手法を提案する。
両手法が多種多様なPCの一般化性能を一貫して向上することを示す。
論文 参考訳(メタデータ) (2021-06-04T05:11:13Z) - Probabilistic Generating Circuits [50.98473654244851]
効率的な表現のための確率的生成回路(PGC)を提案する。
PGCは、非常に異なる既存モデルを統一する理論的なフレームワークであるだけでなく、現実的なデータをモデル化する大きな可能性も示している。
我々はPCとDPPの単純な組み合わせによって簡単に仮定されない単純なPGCのクラスを示し、一連の密度推定ベンチマークで競合性能を得る。
論文 参考訳(メタデータ) (2021-02-19T07:06:53Z) - Predictive Coding Approximates Backprop along Arbitrary Computation
Graphs [68.8204255655161]
我々は、コア機械学習アーキテクチャを予測的符号化に翻訳する戦略を開発する。
私たちのモデルは、挑戦的な機械学習ベンチマークのバックプロップと同等に機能します。
本手法は,ニューラルネットワークに標準機械学習アルゴリズムを直接実装できる可能性を高める。
論文 参考訳(メタデータ) (2020-06-07T15:35:47Z) - Einsum Networks: Fast and Scalable Learning of Tractable Probabilistic
Circuits [99.59941892183454]
我々は,PC用の新しい実装設計であるEinsum Networks (EiNets)を提案する。
中心となるのは、E EiNets は単一のモノリシックな einsum-operation に多数の算術演算を組み合わせている。
本稿では,PCにおける予測最大化(EM)の実装を,自動微分を利用した簡易化が可能であることを示す。
論文 参考訳(メタデータ) (2020-04-13T23:09:15Z) - Torch-Struct: Deep Structured Prediction Library [138.5262350501951]
本稿では,構造化予測ライブラリTorch-Structを紹介する。
Torch-Structには,シンプルで柔軟な分散ベースのAPIを通じてアクセスされる,確率的構造の広範なコレクションが含まれている。
論文 参考訳(メタデータ) (2020-02-03T16:43:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。