論文の概要: Joint Probability Trees
- arxiv url: http://arxiv.org/abs/2302.07167v1
- Date: Tue, 14 Feb 2023 16:29:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-15 14:59:36.077772
- Title: Joint Probability Trees
- Title(参考訳): 連立確率木
- Authors: Daniel Nyga, Mareike Picklum, Tom Schierenbeck, Michael Beetz
- Abstract要約: 本稿では,関節確率分布の学習と推論を可能にする新しいアプローチであるJPT(Joint Probability Trees)を紹介する。
JPTは1つのハイブリッドモデルでシンボル変数とサブシンボル変数の両方をサポートする。
実験では, 数百万のトレーニングサンプルを用いた高次元不均一確率空間におけるJPTの実用性を示す。
- 参考スコア(独自算出の注目度): 12.762502133890797
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We introduce Joint Probability Trees (JPT), a novel approach that makes
learning of and reasoning about joint probability distributions tractable for
practical applications. JPTs support both symbolic and subsymbolic variables in
a single hybrid model, and they do not rely on prior knowledge about variable
dependencies or families of distributions. JPT representations build on tree
structures that partition the problem space into relevant subregions that are
elicited from the training data instead of postulating a rigid dependency model
prior to learning. Learning and reasoning scale linearly in JPTs, and the tree
structure allows white-box reasoning about any posterior probability $P(Q|E)$,
such that interpretable explanations can be provided for any inference result.
Our experiments showcase the practical applicability of JPTs in
high-dimensional heterogeneous probability spaces with millions of training
samples, making it a promising alternative to classic probabilistic graphical
models.
- Abstract(参考訳): 本稿では,JPT(Joint Probability Trees)を導入し,共同確率分布の学習と推論を実践的に行う手法を提案する。
JPTはシンボリック変数とサブシンボリック変数の両方を単一のハイブリッドモデルでサポートしており、変数依存や分布のファミリーに関する事前知識に依存していない。
jpt表現は、問題空間を学習前に厳格な依存関係モデルを仮定するのではなく、トレーニングデータから導かれる関連するサブリージョンに分割するツリー構造上に構築されている。
学習と推論はJPTにおいて線形にスケールし、ツリー構造は任意の後続確率$P(Q|E)$についてのホワイトボックス推論を可能にし、任意の推論結果に対して解釈可能な説明を与えることができる。
実験では、数百万のトレーニングサンプルを持つ高次元不均一確率空間におけるJPTの実用性を示し、古典的確率的グラフィカルモデルに代わる有望な代替となる。
関連論文リスト
- Ensembles of Probabilistic Regression Trees [46.53457774230618]
木に基づくアンサンブル法は多くの応用や研究で回帰問題に成功している。
本研究では,確率分布に関する各領域の観察を割り当てることで,目的関数のスムーズな近似を提供する確率回帰木のアンサンブルバージョンについて検討する。
論文 参考訳(メタデータ) (2024-06-20T06:51:51Z) - Credal Learning Theory [4.64390130376307]
我々は,データ生成分布の変動をモデル化するために,凸集合の確率を用いて,不規則な学習理論の基礎を定めている。
境界は有限仮説空間や古典的な結果を直接一般化する無限モデル空間の場合に導かれる。
論文 参考訳(メタデータ) (2024-02-01T19:25:58Z) - On the Joint Interaction of Models, Data, and Features [82.60073661644435]
本稿では,データとモデル間の相互作用を実験的に解析する新しいツールであるインタラクションテンソルを紹介する。
これらの観測に基づいて,特徴学習のための概念的枠組みを提案する。
この枠組みの下では、一つの仮説に対する期待された精度と一対の仮説に対する合意はどちらも閉形式で導出することができる。
論文 参考訳(メタデータ) (2023-06-07T21:35:26Z) - TreeFlow: Going beyond Tree-based Gaussian Probabilistic Regression [0.0]
ツリーアンサンブルを使うことの利点と柔軟な確率分布をモデル化する能力を組み合わせたツリーベースアプローチであるTreeFlowを紹介した。
提案手法は, 諸量, 特徴量, 目標寸法の異なる回帰ベンチマークを用いて評価する。
論文 参考訳(メタデータ) (2022-06-08T20:06:23Z) - Implicit Generative Copulas [0.0]
我々は、暗黙的な生成ニューラルネットワークに基づく柔軟な、しかし概念的には単純な代替案を提案する。
ファイナンス、物理、画像生成の合成および実データに関する実験は、このアプローチの性能を実証している。
論文 参考訳(メタデータ) (2021-09-29T17:05:30Z) - Structural Learning of Probabilistic Sentential Decision Diagrams under
Partial Closed-World Assumption [127.439030701253]
確率感性決定図は構造化分解可能な回路のクラスである。
本稿では,回路の論理的基盤を暗黙的に提供する部分閉世界仮定に基づく新しいスキームを提案する。
予備実験では、提案手法がトレーニングデータに適切に適合し、基礎となる論理的基盤と整合性を維持した上で、テストデータによく適合することを示した。
論文 参考訳(メタデータ) (2021-07-26T12:01:56Z) - PSD Representations for Effective Probability Models [117.35298398434628]
最近提案された非負関数に対する正半定値(PSD)モデルがこの目的に特に適していることを示す。
我々はPSDモデルの近似と一般化能力の両方を特徴付け、それらが強い理論的保証を享受していることを示す。
本研究では,PSDモデルの密度推定,決定理論,推論への応用への道を開く。
論文 参考訳(メタデータ) (2021-06-30T15:13:39Z) - On the Generative Utility of Cyclic Conditionals [103.1624347008042]
2つの条件付きモデル$p(x|z)$を用いて、共同分布$p(x,z)$をモデル化できるかどうか、また、どのようにしてサイクルを形成するかを検討する。
本稿では,周期条件生成モデリングのためのCyGenフレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-30T10:23:45Z) - Probabilistic Generating Circuits [50.98473654244851]
効率的な表現のための確率的生成回路(PGC)を提案する。
PGCは、非常に異なる既存モデルを統一する理論的なフレームワークであるだけでなく、現実的なデータをモデル化する大きな可能性も示している。
我々はPCとDPPの単純な組み合わせによって簡単に仮定されない単純なPGCのクラスを示し、一連の密度推定ベンチマークで競合性能を得る。
論文 参考訳(メタデータ) (2021-02-19T07:06:53Z) - General stochastic separation theorems with optimal bounds [68.8204255655161]
分離性の現象が明らかになり、機械学習で人工知能(AI)システムのエラーを修正し、AI不安定性を分析するために使用された。
エラーやエラーのクラスタは、残りのデータから分離することができる。
AIシステムを修正する能力は、それに対する攻撃の可能性も開き、高次元性は、同じ分離性によって引き起こされる脆弱性を誘発する。
論文 参考訳(メタデータ) (2020-10-11T13:12:41Z) - A Complete Characterization of Projectivity for Statistical Relational
Models [20.833623839057097]
本稿では,射影関係モデルのクラスを正確に対応付ける,有向潜在変数モデルのクラスを導入する。
また、与えられた大きさ-$k$構造上の分布が、より大きい大きさ-$n$構造における大きさ-$k$部分構造の統計周波数分布であるときの特性も得られる。
論文 参考訳(メタデータ) (2020-04-23T05:58:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。