論文の概要: Self-Compatibility: Evaluating Causal Discovery without Ground Truth
- arxiv url: http://arxiv.org/abs/2307.09552v1
- Date: Tue, 18 Jul 2023 18:59:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-20 16:27:10.765422
- Title: Self-Compatibility: Evaluating Causal Discovery without Ground Truth
- Title(参考訳): 自己整合性:地中真実のない因果発見の評価
- Authors: Philipp M. Faller (1), Leena Chennuru Vankadara (2), Atalanti A.
Mastakouri (2), Francesco Locatello (2), Dominik Janzing (2) ((1) Karlsruhe
Institute of Technology, (2) Amazon Research Tuebingen)
- Abstract要約: 本研究では,基底真理が存在しない場合に因果発見アルゴリズムの出力をfalsificationする新しい手法を提案する。
我々の重要な洞察は、統計的学習がデータポイントのサブセット間の安定性を求める一方で、因果学習は変数のサブセット間の安定性を求めるべきであるということである。
本研究では,不整合性の検出が,仮定や誤差が有限なサンプル効果によって誤って因果関係を推定することを証明する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As causal ground truth is incredibly rare, causal discovery algorithms are
commonly only evaluated on simulated data. This is concerning, given that
simulations reflect common preconceptions about generating processes regarding
noise distributions, model classes, and more. In this work, we propose a novel
method for falsifying the output of a causal discovery algorithm in the absence
of ground truth. Our key insight is that while statistical learning seeks
stability across subsets of data points, causal learning should seek stability
across subsets of variables. Motivated by this insight, our method relies on a
notion of compatibility between causal graphs learned on different subsets of
variables. We prove that detecting incompatibilities can falsify wrongly
inferred causal relations due to violation of assumptions or errors from finite
sample effects. Although passing such compatibility tests is only a necessary
criterion for good performance, we argue that it provides strong evidence for
the causal models whenever compatibility entails strong implications for the
joint distribution. We also demonstrate experimentally that detection of
incompatibilities can aid in causal model selection.
- Abstract(参考訳): 因果的根拠の真理は非常に稀であるため、因果的発見アルゴリズムは一般にシミュレーションデータでのみ評価される。
これは、ノイズ分布やモデルクラスなどに関するプロセス生成に関する一般的な前提をシミュレーションが反映しているためである。
本研究では,基底真理が欠如している場合に因果探索アルゴリズムの出力をfalsificationする新しい手法を提案する。
我々の重要な洞察は、統計的学習がデータポイントのサブセット間の安定性を求める一方で、因果学習は変数のサブセット間の安定性を求めるべきであるということである。
この知見に動機づけられたこの方法は、変数の異なる部分集合で学習された因果グラフ間の互換性の概念に依存している。
非互換性の検出は、仮定の違反や有限なサンプル効果による誤りにより、誤った推論因果関係を偽り得ることが証明される。
このような整合性テストの通過は, 良好な性能を示す上で必要な基準に過ぎないが, 整合性が結合分布に強い影響を及ぼす場合, 因果関係モデルに対して強い証拠を与えると論じる。
また,不適合性の検出が因果モデル選択の助けとなることを実験的に示す。
関連論文リスト
- Identifiable Latent Polynomial Causal Models Through the Lens of Change [85.67870425656368]
因果表現学習は、観測された低レベルデータから潜在的な高レベル因果表現を明らかにすることを目的としている。
主な課題の1つは、識別可能性(identifiability)として知られるこれらの潜伏因果モデルを特定する信頼性の高い保証を提供することである。
論文 参考訳(メタデータ) (2023-10-24T07:46:10Z) - Causal Discovery using Bayesian Model Selection [16.584177613925]
ベイズフレームワークにおける因果仮定の使い方を示す。
これにより、現実的な仮定でモデルを特定できます。
その後、幅広いベンチマークデータセットにおいて、従来の手法よりも優れています。
論文 参考訳(メタデータ) (2023-06-05T14:51:05Z) - Nonparametric Identifiability of Causal Representations from Unknown
Interventions [63.1354734978244]
本研究では, 因果表現学習, 潜伏因果変数を推定するタスク, およびそれらの変数の混合から因果関係を考察する。
我々のゴールは、根底にある真理潜入者とその因果グラフの両方を、介入データから解決不可能なあいまいさの集合まで識別することである。
論文 参考訳(メタデータ) (2023-06-01T10:51:58Z) - Identifiability of Sparse Causal Effects using Instrumental Variables [5.368313160283353]
弱条件下では因果係数が識別可能であることが証明され、因果関係の親の数と同じくらい楽器の数が小さいモデルでも特定できる。
推定器として spaceIV を提案し,モデルが同定可能であれば因果効果を常に推定し,その性能をシミュレーションデータ上で評価する。
論文 参考訳(メタデータ) (2022-03-17T15:15:52Z) - Causal Discovery in Linear Structural Causal Models with Deterministic
Relations [27.06618125828978]
我々は因果発見の課題と観察データに焦点をあてる。
因果構造の特異な識別に必要かつ十分な条件のセットを導出する。
論文 参考訳(メタデータ) (2021-10-30T21:32:42Z) - Estimation of Bivariate Structural Causal Models by Variational Gaussian
Process Regression Under Likelihoods Parametrised by Normalising Flows [74.85071867225533]
因果機構は構造因果モデルによって記述できる。
最先端の人工知能の大きな欠点の1つは、説明責任の欠如である。
論文 参考訳(メタデータ) (2021-09-06T14:52:58Z) - Typing assumptions improve identification in causal discovery [123.06886784834471]
観測データからの因果発見は、正確な解を常に特定できない難しい課題である。
そこで本研究では,変数の性質に基づいた因果関係を制約する仮説を新たに提案する。
論文 参考訳(メタデータ) (2021-07-22T14:23:08Z) - Disentangling Observed Causal Effects from Latent Confounders using
Method of Moments [67.27068846108047]
我々は、軽度の仮定の下で、識別性と学習可能性に関する保証を提供する。
我々は,線形制約付き結合テンソル分解に基づく効率的なアルゴリズムを開発し,スケーラブルで保証可能な解を得る。
論文 参考訳(メタデータ) (2021-01-17T07:48:45Z) - Information-Theoretic Approximation to Causal Models [0.0]
有限標本から2つの確率変数間の因果方向と因果効果を推定する問題の解法が可能であることを示す。
X と Y のサンプルから生じる分布を高次元確率空間に埋め込む。
本稿では, 線形最適化問題を解くことにより, 因果モデル(IACM)に対する情報理論近似が可能であることを示す。
論文 参考訳(メタデータ) (2020-07-29T18:34:58Z) - The Curse of Performance Instability in Analysis Datasets: Consequences,
Source, and Suggestions [93.62888099134028]
自然言語推論(NLI)および読み込み(RC)解析/ストレスセットにおける最先端モデルの性能は極めて不安定であることがわかった。
このことは、(1)不安定さがこれらの分析セットに基づいて引き出された結論の信頼性にどのように影響するかという3つの疑問を提起する。
不安定の原因に関する理論的説明と実証的証拠の両方を提示する。
論文 参考訳(メタデータ) (2020-04-28T15:41:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。