論文の概要: Diffusion Models for Causal Discovery via Topological Ordering
- arxiv url: http://arxiv.org/abs/2210.06201v2
- Date: Mon, 26 Jun 2023 14:42:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-28 00:38:11.439043
- Title: Diffusion Models for Causal Discovery via Topological Ordering
- Title(参考訳): 位相秩序による因果発見のための拡散モデル
- Authors: Pedro Sanchez, Xiao Liu, Alison Q O'Neil, Sotirios A. Tsaftaris
- Abstract要約: emphTopological ordering approachは、グラフ空間ではなく置換を探索することによって因果発見の最適化空間を減少させる。
ANMsの場合、データログのようなemphHessianは、葉ノードを因果グラフで見つけるのに使用することができ、トポロジ的順序付けを可能にする。
ニューラルネットワークを再トレーニングすることなく、学習したヘッセンを更新する理論を導入し、サンプルのサブセットによる計算が注文の正確な近似を与えることを示す。
- 参考スコア(独自算出の注目度): 20.875222263955045
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Discovering causal relations from observational data becomes possible with
additional assumptions such as considering the functional relations to be
constrained as nonlinear with additive noise (ANM). Even with strong
assumptions, causal discovery involves an expensive search problem over the
space of directed acyclic graphs (DAGs). \emph{Topological ordering} approaches
reduce the optimisation space of causal discovery by searching over a
permutation rather than graph space. For ANMs, the \emph{Hessian} of the data
log-likelihood can be used for finding leaf nodes in a causal graph, allowing
its topological ordering. However, existing computational methods for obtaining
the Hessian still do not scale as the number of variables and the number of
samples increase. Therefore, inspired by recent innovations in diffusion
probabilistic models (DPMs), we propose \emph{DiffAN}\footnote{Implementation
is available at \url{https://github.com/vios-s/DiffAN} .}, a topological
ordering algorithm that leverages DPMs for learning a Hessian function. We
introduce theory for updating the learned Hessian without re-training the
neural network, and we show that computing with a subset of samples gives an
accurate approximation of the ordering, which allows scaling to datasets with
more samples and variables. We show empirically that our method scales
exceptionally well to datasets with up to $500$ nodes and up to $10^5$ samples
while still performing on par over small datasets with state-of-the-art causal
discovery methods. Implementation is available at
https://github.com/vios-s/DiffAN .
- Abstract(参考訳): 観測データから因果関係の発見は、付加雑音(anm)を伴う非線形として制約される機能関係を考えるといった追加の仮定によって可能となる。
強い仮定にもかかわらず、因果探索は有向非巡回グラフ(DAG)の空間上の高価な探索問題を伴う。
\emph{Topological ordering} アプローチは、グラフ空間ではなく置換を探索することによって因果発見の最適化空間を減少させる。
anms の場合、データログ類似性の \emph{hessian} は因果グラフ内の葉ノードを見つけるのに使われ、その位相順序付けを可能にする。
しかし、Hessianを得るための既存の計算手法は、変数の数やサンプルの数が増えるにつれてスケールしない。
したがって、拡散確率モデル(DPM)の最近の革新に触発されて、我々は \emph{DiffAN}\footnote{Implementation is available at \url{https://github.com/vios-s/DiffAN} を提案する。
これは、DPMを利用してヘッセン関数を学習するトポロジ的順序付けアルゴリズムである。
ニューラルネットワークを再トレーニングすることなく学習したヘッシアンを更新する理論を導入し、サンプルのサブセットによる計算が順序の正確な近似を与え、より多くのサンプルと変数を持つデータセットへのスケーリングを可能にすることを示す。
我々は,提案手法が500ドルのノードと最大10^5ドルのサンプルを持つデータセットに対して,なおも最先端の因果探索手法を持つ小さなデータセットと同等に動作していることを実証的に示す。
実装はhttps://github.com/vios-s/DiffANで公開されている。
関連論文リスト
- CUTS: Neural Causal Discovery from Irregular Time-Series Data [27.06531262632836]
時系列データからの因果発見は、機械学習における中心的なタスクである。
本稿では,ニューラルグランガー因果探索アルゴリズムであるCUTSについて述べる。
提案手法は,非理想的な観測を行う実アプリケーションに因果発見を適用するための有望なステップとなる。
論文 参考訳(メタデータ) (2023-02-15T04:16:34Z) - Score-based Diffusion Models in Function Space [140.792362459734]
拡散モデルは、最近、生成モデリングの強力なフレームワークとして登場した。
本稿では,関数空間における拡散モデルをトレーニングするためのDDO(Denoising Diffusion Operators)という,数学的に厳密なフレームワークを提案する。
データ解像度に依存しない固定コストで、対応する離散化アルゴリズムが正確なサンプルを生成することを示す。
論文 参考訳(メタデータ) (2023-02-14T23:50:53Z) - Combating Mode Collapse in GANs via Manifold Entropy Estimation [70.06639443446545]
Generative Adversarial Networks (GAN) は、様々なタスクやアプリケーションにおいて魅力的な結果を示している。
GANのモード崩壊問題に対処するための新しいトレーニングパイプラインを提案する。
論文 参考訳(メタデータ) (2022-08-25T12:33:31Z) - The Manifold Hypothesis for Gradient-Based Explanations [55.01671263121624]
勾配に基づく説明アルゴリズムは知覚的に整合した説明を提供する。
特徴属性がデータの接する空間と一致しているほど、知覚的に一致している傾向にあることを示す。
説明アルゴリズムは、その説明をデータ多様体と整合させるよう積極的に努力すべきである。
論文 参考訳(メタデータ) (2022-06-15T08:49:24Z) - MissDAG: Causal Discovery in the Presence of Missing Data with
Continuous Additive Noise Models [78.72682320019737]
不完全な観測データから因果発見を行うため,MissDAGと呼ばれる一般的な手法を開発した。
MissDAGは、期待-最大化の枠組みの下で観測の可視部分の期待される可能性を最大化する。
各種因果探索アルゴリズムを組み込んだMissDAGの柔軟性について,広範囲なシミュレーションと実データ実験により検証した。
論文 参考訳(メタデータ) (2022-05-27T09:59:46Z) - Diffusion Causal Models for Counterfactual Estimation [18.438307666925425]
本稿では,観測画像データから因果構造を推定する作業について考察する。
Diff-SCMは,近年の発電エネルギーモデルの発展を基盤とした構造因果モデルである。
Diff-SCMはMNISTデータに基づくベースラインよりも現実的で最小限のデファクトアルを生成しており、ImageNetデータにも適用可能である。
論文 参考訳(メタデータ) (2022-02-21T12:23:01Z) - Sequential Learning of the Topological Ordering for the Linear
Non-Gaussian Acyclic Model with Parametric Noise [6.866717993664787]
我々はDAGの因果順序を推定するための新しい逐次的アプローチを開発する。
数千のノードを持つケースに対して,我々の手順がスケーラブルであることを示すための,広範な数値的証拠を提供する。
論文 参考訳(メタデータ) (2022-02-03T18:15:48Z) - Inverting brain grey matter models with likelihood-free inference: a
tool for trustable cytoarchitecture measurements [62.997667081978825]
脳の灰白質細胞構造の特徴は、体密度と体積に定量的に敏感であり、dMRIでは未解決の課題である。
我々は新しいフォワードモデル、特に新しい方程式系を提案し、比較的スパースなb殻を必要とする。
次に,提案手法を逆転させるため,確率自由推論 (LFI) として知られるベイズ解析から最新のツールを適用した。
論文 参考訳(メタデータ) (2021-11-15T09:08:27Z) - Inferring Manifolds From Noisy Data Using Gaussian Processes [17.166283428199634]
ほとんどの既存の多様体学習アルゴリズムは、元のデータを低次元座標で置き換える。
本稿では,これらの問題に対処するための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-10-14T15:50:38Z) - Block-Approximated Exponential Random Graphs [77.4792558024487]
指数乱グラフ(ERG)の分野における重要な課題は、大きなグラフ上の非自明なERGの適合である。
本稿では,非自明なERGに対する近似フレームワークを提案する。
我々の手法は、数百万のノードからなるスパースグラフにスケーラブルである。
論文 参考訳(メタデータ) (2020-02-14T11:42:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。