論文の概要: Self-Compatibility: Evaluating Causal Discovery without Ground Truth
- arxiv url: http://arxiv.org/abs/2307.09552v2
- Date: Fri, 15 Mar 2024 13:06:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-19 07:32:15.651464
- Title: Self-Compatibility: Evaluating Causal Discovery without Ground Truth
- Title(参考訳): 自己整合性: 地中真実を伴わない因果発見の評価
- Authors: Philipp M. Faller, Leena Chennuru Vankadara, Atalanti A. Mastakouri, Francesco Locatello, Dominik Janzing,
- Abstract要約: 本研究では,基底真理が存在しない場合に因果発見アルゴリズムの出力をfalsificationする新しい手法を提案する。
我々の重要な洞察は、統計的学習がデータポイントのサブセット間の安定性を求める一方で、因果学習は変数のサブセット間の安定性を求めるべきであるということである。
本研究では,不整合性の検出が,仮定や誤差が有限なサンプル効果によって誤って因果関係を推定することを証明する。
- 参考スコア(独自算出の注目度): 28.72650348646176
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As causal ground truth is incredibly rare, causal discovery algorithms are commonly only evaluated on simulated data. This is concerning, given that simulations reflect preconceptions about generating processes regarding noise distributions, model classes, and more. In this work, we propose a novel method for falsifying the output of a causal discovery algorithm in the absence of ground truth. Our key insight is that while statistical learning seeks stability across subsets of data points, causal learning should seek stability across subsets of variables. Motivated by this insight, our method relies on a notion of compatibility between causal graphs learned on different subsets of variables. We prove that detecting incompatibilities can falsify wrongly inferred causal relations due to violation of assumptions or errors from finite sample effects. Although passing such compatibility tests is only a necessary criterion for good performance, we argue that it provides strong evidence for the causal models whenever compatibility entails strong implications for the joint distribution. We also demonstrate experimentally that detection of incompatibilities can aid in causal model selection.
- Abstract(参考訳): 因果的基底真理は非常に稀であるため、因果的発見アルゴリズムは一般的にシミュレーションデータでのみ評価される。
このことは、ノイズ分布やモデルクラスなどに関するプロセスの生成について、シミュレーションが先入観を反映していることに関係している。
本研究では,基底真理が欠如している場合に因果探索アルゴリズムの出力をfalsificationする新しい手法を提案する。
我々の重要な洞察は、統計的学習がデータポイントのサブセット間の安定性を求める一方で、因果学習は変数のサブセット間の安定性を求めるべきであるということである。
この知見により、本手法は変数の異なる部分集合で学習した因果グラフ間の整合性の概念に依存している。
本研究では,不整合性の検出が,仮定や誤差が有限なサンプル効果によって誤って因果関係を推定することを証明する。
このような整合性テストの通過は, 良好な性能を示す上で必要な基準に過ぎないが, 整合性が結合分布に強い影響を及ぼす場合, 因果関係モデルに対して強い証拠を与えると論じる。
また,不整合の検出が因果モデル選択に有効であることを示す。
関連論文リスト
- Score matching through the roof: linear, nonlinear, and latent variables causal discovery [18.46845413928147]
観測データからの因果発見は、非常に有望である。
既存の手法は根底にある因果構造に関する強い仮定に依存している。
線形・非線形・潜在変数モデルにまたがる因果探索のためのフレキシブルアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-07-26T14:09:06Z) - Demystifying amortized causal discovery with transformers [21.058343547918053]
観測データからの因果発見のための教師付き学習アプローチは、しばしば競争性能を達成する。
本研究では,CSIvAについて検討する。CSIvAは,合成データのトレーニングと実データへの転送を約束するトランスフォーマーモデルである。
既存の識別可能性理論とギャップを埋め、トレーニングデータ分布の制約がテスト観測の事前を暗黙的に定義していることを示します。
論文 参考訳(メタデータ) (2024-05-27T08:17:49Z) - Argumentative Causal Discovery [13.853426822028975]
因果発見は、データの特徴間の因果関係を発掘することにつながる。
データ内の因果依存性を反映したグラフを学習するために仮定ベースの議論(ABA)をデプロイする。
我々は,本手法が望ましい特性を示すことを証明し,特に自然条件下では,地底因果グラフを検索できることを示す。
論文 参考訳(メタデータ) (2024-05-18T10:34:34Z) - Identifiable Latent Neural Causal Models [82.14087963690561]
因果表現学習は、低レベルの観測データから潜伏した高レベルの因果表現を明らかにすることを目指している。
因果表現の識別可能性に寄与する分布シフトのタイプを決定する。
本稿では,本研究の成果を実用的なアルゴリズムに翻訳し,信頼性の高い潜在因果表現の取得を可能にする。
論文 参考訳(メタデータ) (2024-03-23T04:13:55Z) - Identifiable Latent Polynomial Causal Models Through the Lens of Change [82.14087963690561]
因果表現学習は、観測された低レベルデータから潜在的な高レベル因果表現を明らかにすることを目的としている。
主な課題の1つは、識別可能性(identifiability)として知られるこれらの潜伏因果モデルを特定する信頼性の高い保証を提供することである。
論文 参考訳(メタデータ) (2023-10-24T07:46:10Z) - Causal Discovery via Conditional Independence Testing with Proxy Variables [35.3493980628004]
潜伏した共同設立者のような未観測変数の存在は、条件付き独立テストにバイアスをもたらす可能性がある。
本研究では,連続変数に対する因果関係の存在を効果的に検証できる仮説テスト手法を提案する。
論文 参考訳(メタデータ) (2023-05-09T09:08:39Z) - Identifying Weight-Variant Latent Causal Models [82.14087963690561]
推移性は潜在因果表現の識別性を阻害する重要な役割を担っている。
いくつかの軽微な仮定の下では、潜伏因果表現が自明な置換とスケーリングまで特定可能であることを示すことができる。
本稿では,その間の因果関係や因果関係を直接学習する構造的caUsAl変分自動エンコーダを提案する。
論文 参考訳(メタデータ) (2022-08-30T11:12:59Z) - Estimation of Bivariate Structural Causal Models by Variational Gaussian
Process Regression Under Likelihoods Parametrised by Normalising Flows [74.85071867225533]
因果機構は構造因果モデルによって記述できる。
最先端の人工知能の大きな欠点の1つは、説明責任の欠如である。
論文 参考訳(メタデータ) (2021-09-06T14:52:58Z) - Typing assumptions improve identification in causal discovery [123.06886784834471]
観測データからの因果発見は、正確な解を常に特定できない難しい課題である。
そこで本研究では,変数の性質に基づいた因果関係を制約する仮説を新たに提案する。
論文 参考訳(メタデータ) (2021-07-22T14:23:08Z) - Disentangling Observed Causal Effects from Latent Confounders using
Method of Moments [67.27068846108047]
我々は、軽度の仮定の下で、識別性と学習可能性に関する保証を提供する。
我々は,線形制約付き結合テンソル分解に基づく効率的なアルゴリズムを開発し,スケーラブルで保証可能な解を得る。
論文 参考訳(メタデータ) (2021-01-17T07:48:45Z) - Information-Theoretic Approximation to Causal Models [0.0]
有限標本から2つの確率変数間の因果方向と因果効果を推定する問題の解法が可能であることを示す。
X と Y のサンプルから生じる分布を高次元確率空間に埋め込む。
本稿では, 線形最適化問題を解くことにより, 因果モデル(IACM)に対する情報理論近似が可能であることを示す。
論文 参考訳(メタデータ) (2020-07-29T18:34:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。