論文の概要: $χ$SPN: Characteristic Interventional Sum-Product Networks for Causal Inference in Hybrid Domains
- arxiv url: http://arxiv.org/abs/2408.07545v1
- Date: Wed, 14 Aug 2024 13:31:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-15 13:03:36.516737
- Title: $χ$SPN: Characteristic Interventional Sum-Product Networks for Causal Inference in Hybrid Domains
- Title(参考訳): ハイブリッドドメインにおける因果推論のための特徴的インターベンショナルSum-Product Networks
- Authors: Harsh Poonia, Moritz Willig, Zhongjie Yu, Matej Zečević, Kristian Kersting, Devendra Singh Dhami,
- Abstract要約: 確率変数が存在する場合の介入分布を推定できるaCharacteristic Interventional Sum-Product Network(chi$SPN)を提案する。
$chi$SPNは、介入SPN(iSPN)の葉の特徴的な関数を使い、離散的かつ連続的な確率変数に対する統一的なビューを提供する。
ニューラルネットワークを用いて、インターバルデータを用いて学習したiSPNのパラメータを推定する。
- 参考スコア(独自算出の注目度): 19.439265962277716
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Causal inference in hybrid domains, characterized by a mixture of discrete and continuous variables, presents a formidable challenge. We take a step towards this direction and propose Characteristic Interventional Sum-Product Network ($\chi$SPN) that is capable of estimating interventional distributions in presence of random variables drawn from mixed distributions. $\chi$SPN uses characteristic functions in the leaves of an interventional SPN (iSPN) thereby providing a unified view for discrete and continuous random variables through the Fourier-Stieltjes transform of the probability measures. A neural network is used to estimate the parameters of the learned iSPN using the intervened data. Our experiments on 3 synthetic heterogeneous datasets suggest that $\chi$SPN can effectively capture the interventional distributions for both discrete and continuous variables while being expressive and causally adequate. We also show that $\chi$SPN generalize to multiple interventions while being trained only on a single intervention data.
- Abstract(参考訳): 離散変数と連続変数の混合によって特徴づけられるハイブリッド領域における因果推論は、恐ろしい挑戦となる。
我々はこの方向に向かって一歩踏み出し、混合分布から引き出されたランダムな変数の存在下で介入分布を推定できる特徴的インターベンショナル Sum-Product Network (\chi$SPN) を提案する。
$\chi$SPN は、干渉SPN (iSPN) の葉の特徴的な関数を使い、確率測度のフーリエ・スティルチェス変換を通して離散的かつ連続的な確率変数に対する統一的なビューを提供する。
ニューラルネットワークを用いて、インターバルデータを用いて学習したiSPNのパラメータを推定する。
3つの合成ヘテロジニアスデータセットを用いた実験により、$\chi$SPNは、離散変数と連続変数の両方に対する干渉分布を効果的に捉えつつ、表現的かつ因果的に適切であることを示唆した。
また、$\chi$SPNは、単一の介入データのみをトレーニングしながら、複数の介入を一般化することを示す。
関連論文リスト
- Probabilistic Verification of ReLU Neural Networks via Characteristic
Functions [11.489187712465325]
我々は、周波数領域における確率理論のアイデアを用いて、ReLUニューラルネットワークの確率論的検証保証を提供する。
我々は、(深い)フィードフォワードニューラルネットワークを有限地平線上の離散力学系として解釈する。
出力集合の累積分布関数を求め,ネットワークが期待通りに動作しているかどうかを確認する。
論文 参考訳(メタデータ) (2022-12-03T05:53:57Z) - Exchangeability-Aware Sum-Product Networks [10.506336354512145]
Sum-Product Networks (SPN) は、正確に、抽出可能な推論を提供する表現的確率モデルである。
本論文の貢献は,交換可能性を考慮したSum-Product Networks (XSPNs) と呼ばれる新しい確率モデルである。
論文 参考訳(メタデータ) (2021-10-11T11:25:31Z) - Decentralized Local Stochastic Extra-Gradient for Variational
Inequalities [125.62877849447729]
我々は、不均一(非IID)で多くのデバイスに分散する問題データを持つ領域上での分散変分不等式(VIs)を考察する。
我々は、完全に分散化された計算の設定を網羅する計算ネットワークについて、非常に一般的な仮定を行う。
理論的には, モノトン, モノトンおよび非モノトンセッティングにおける収束速度を理論的に解析する。
論文 参考訳(メタデータ) (2021-06-15T17:45:51Z) - Mixture Density Network Estimation of Continuous Variable Maximum
Likelihood Using Discrete Training Samples [0.0]
混合密度ネットワーク(MDN)は、観測変数の集合が与えられたモデルパラメータ$boldsymboltheta$の確率密度関数を生成するために用いられる。
パラメータ推定におけるmdnsの利用を実証し,バイアスの起源を議論し,各問題に対する修正手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T18:02:55Z) - Sampling-free Variational Inference for Neural Networks with
Multiplicative Activation Noise [51.080620762639434]
サンプリングフリー変動推論のための後方近似のより効率的なパラメータ化を提案する。
提案手法は,標準回帰問題に対する競合的な結果をもたらし,大規模画像分類タスクに適している。
論文 参考訳(メタデータ) (2021-03-15T16:16:18Z) - Interventional Sum-Product Networks: Causal Inference with Tractable
Probabilistic Models [26.497268758016595]
要約積ネットワーク(SPN)を用いた介入分布の学習の問題を検討する。
任意に介入した因果グラフを入力として、Pearlのdo-operatorを効果的に仮定する。
結果として生じる介入SPNは、個人の健康をテーマとした構造因果モデルによって動機づけられ、図示される。
論文 参考訳(メタデータ) (2021-02-20T20:48:47Z) - Probabilistic Circuits for Variational Inference in Discrete Graphical
Models [101.28528515775842]
変分法による離散的グラフィカルモデルの推論は困難である。
エビデンス・ロウアーバウンド(ELBO)を推定するためのサンプリングに基づく多くの手法が提案されている。
Sum Product Networks (SPN) のような確率的回路モデルのトラクタビリティを活用する新しい手法を提案する。
選択的SPNが表現的変動分布として適していることを示し、対象モデルの対数密度が重み付けされた場合、対応するELBOを解析的に計算可能であることを示す。
論文 参考訳(メタデータ) (2020-10-22T05:04:38Z) - Probabilistic Numeric Convolutional Neural Networks [80.42120128330411]
画像や時系列などの連続的な入力信号は、不規則にサンプリングされたり、値が欠けていたりすることは、既存のディープラーニング手法では困難である。
ガウス過程(GP)として特徴を表す確率的畳み込みニューラルネットワークを提案する。
次に、畳み込み層を、このGP上で定義されたPDEの進化として定義し、次いで非線形性とする。
実験では,SuperPixel-MNISTデータセットの先行技術と医療時間2012データセットの競合性能から,提案手法の誤差を3倍に削減できることが示されている。
論文 参考訳(メタデータ) (2020-10-21T10:08:21Z) - GANs with Variational Entropy Regularizers: Applications in Mitigating
the Mode-Collapse Issue [95.23775347605923]
深層学習の成功に基づいて、GAN(Generative Adversarial Networks)は、観測されたサンプルから確率分布を学習するための現代的なアプローチを提供する。
GANはしばしば、ジェネレータが入力分布の既存のすべてのモードをキャプチャできないモード崩壊問題に悩まされる。
情報理論のアプローチを採り、生成したサンプルのエントロピーの変動的下限を最大化し、それらの多様性を増大させる。
論文 参考訳(メタデータ) (2020-09-24T19:34:37Z) - NP-PROV: Neural Processes with Position-Relevant-Only Variances [113.20013269514327]
位置関連性オンリーバリアース(NP-PROV)を有するニューラルプロセスと呼ばれる新しいメンバーを提案する。
NP-PROVは、その位置の関数値に関係なく、コンテキストポイントに近いターゲットポイントが小さな不確実性を持つという仮説を立てている。
我々は, NP-PROVが有界分散を維持しつつ, 最先端の可能性を実現することができることを示す。
論文 参考訳(メタデータ) (2020-06-15T06:11:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。