論文の概要: Self-Compatibility: Evaluating Causal Discovery without Ground Truth
- arxiv url: http://arxiv.org/abs/2307.09552v1
- Date: Tue, 18 Jul 2023 18:59:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-20 16:27:10.765422
- Title: Self-Compatibility: Evaluating Causal Discovery without Ground Truth
- Title(参考訳): 自己整合性:地中真実のない因果発見の評価
- Authors: Philipp M. Faller (1), Leena Chennuru Vankadara (2), Atalanti A.
Mastakouri (2), Francesco Locatello (2), Dominik Janzing (2) ((1) Karlsruhe
Institute of Technology, (2) Amazon Research Tuebingen)
- Abstract要約: 本研究では,基底真理が存在しない場合に因果発見アルゴリズムの出力をfalsificationする新しい手法を提案する。
我々の重要な洞察は、統計的学習がデータポイントのサブセット間の安定性を求める一方で、因果学習は変数のサブセット間の安定性を求めるべきであるということである。
本研究では,不整合性の検出が,仮定や誤差が有限なサンプル効果によって誤って因果関係を推定することを証明する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As causal ground truth is incredibly rare, causal discovery algorithms are
commonly only evaluated on simulated data. This is concerning, given that
simulations reflect common preconceptions about generating processes regarding
noise distributions, model classes, and more. In this work, we propose a novel
method for falsifying the output of a causal discovery algorithm in the absence
of ground truth. Our key insight is that while statistical learning seeks
stability across subsets of data points, causal learning should seek stability
across subsets of variables. Motivated by this insight, our method relies on a
notion of compatibility between causal graphs learned on different subsets of
variables. We prove that detecting incompatibilities can falsify wrongly
inferred causal relations due to violation of assumptions or errors from finite
sample effects. Although passing such compatibility tests is only a necessary
criterion for good performance, we argue that it provides strong evidence for
the causal models whenever compatibility entails strong implications for the
joint distribution. We also demonstrate experimentally that detection of
incompatibilities can aid in causal model selection.
- Abstract(参考訳): 因果的根拠の真理は非常に稀であるため、因果的発見アルゴリズムは一般にシミュレーションデータでのみ評価される。
これは、ノイズ分布やモデルクラスなどに関するプロセス生成に関する一般的な前提をシミュレーションが反映しているためである。
本研究では,基底真理が欠如している場合に因果探索アルゴリズムの出力をfalsificationする新しい手法を提案する。
我々の重要な洞察は、統計的学習がデータポイントのサブセット間の安定性を求める一方で、因果学習は変数のサブセット間の安定性を求めるべきであるということである。
この知見に動機づけられたこの方法は、変数の異なる部分集合で学習された因果グラフ間の互換性の概念に依存している。
非互換性の検出は、仮定の違反や有限なサンプル効果による誤りにより、誤った推論因果関係を偽り得ることが証明される。
このような整合性テストの通過は, 良好な性能を示す上で必要な基準に過ぎないが, 整合性が結合分布に強い影響を及ぼす場合, 因果関係モデルに対して強い証拠を与えると論じる。
また,不適合性の検出が因果モデル選択の助けとなることを実験的に示す。
関連論文リスト
- Score matching through the roof: linear, nonlinear, and latent variables causal discovery [18.46845413928147]
観測データからの因果発見は、非常に有望である。
既存の手法は根底にある因果構造に関する強い仮定に依存している。
線形・非線形・潜在変数モデルにまたがる因果探索のためのフレキシブルアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-07-26T14:09:06Z) - Demystifying amortized causal discovery with transformers [21.058343547918053]
観測データからの因果発見のための教師付き学習アプローチは、しばしば競争性能を達成する。
本研究では,CSIvAについて検討する。CSIvAは,合成データのトレーニングと実データへの転送を約束するトランスフォーマーモデルである。
既存の識別可能性理論とギャップを埋め、トレーニングデータ分布の制約がテスト観測の事前を暗黙的に定義していることを示します。
論文 参考訳(メタデータ) (2024-05-27T08:17:49Z) - Argumentative Causal Discovery [13.853426822028975]
因果発見は、データの特徴間の因果関係を発掘することにつながる。
データ内の因果依存性を反映したグラフを学習するために仮定ベースの議論(ABA)をデプロイする。
我々は,本手法が望ましい特性を示すことを証明し,特に自然条件下では,地底因果グラフを検索できることを示す。
論文 参考訳(メタデータ) (2024-05-18T10:34:34Z) - Identifiable Latent Neural Causal Models [82.14087963690561]
因果表現学習は、低レベルの観測データから潜伏した高レベルの因果表現を明らかにすることを目指している。
因果表現の識別可能性に寄与する分布シフトのタイプを決定する。
本稿では,本研究の成果を実用的なアルゴリズムに翻訳し,信頼性の高い潜在因果表現の取得を可能にする。
論文 参考訳(メタデータ) (2024-03-23T04:13:55Z) - Identifiable Latent Polynomial Causal Models Through the Lens of Change [82.14087963690561]
因果表現学習は、観測された低レベルデータから潜在的な高レベル因果表現を明らかにすることを目的としている。
主な課題の1つは、識別可能性(identifiability)として知られるこれらの潜伏因果モデルを特定する信頼性の高い保証を提供することである。
論文 参考訳(メタデータ) (2023-10-24T07:46:10Z) - Causal Discovery via Conditional Independence Testing with Proxy Variables [35.3493980628004]
潜伏した共同設立者のような未観測変数の存在は、条件付き独立テストにバイアスをもたらす可能性がある。
本研究では,連続変数に対する因果関係の存在を効果的に検証できる仮説テスト手法を提案する。
論文 参考訳(メタデータ) (2023-05-09T09:08:39Z) - Identifying Weight-Variant Latent Causal Models [82.14087963690561]
推移性は潜在因果表現の識別性を阻害する重要な役割を担っている。
いくつかの軽微な仮定の下では、潜伏因果表現が自明な置換とスケーリングまで特定可能であることを示すことができる。
本稿では,その間の因果関係や因果関係を直接学習する構造的caUsAl変分自動エンコーダを提案する。
論文 参考訳(メタデータ) (2022-08-30T11:12:59Z) - Estimation of Bivariate Structural Causal Models by Variational Gaussian
Process Regression Under Likelihoods Parametrised by Normalising Flows [74.85071867225533]
因果機構は構造因果モデルによって記述できる。
最先端の人工知能の大きな欠点の1つは、説明責任の欠如である。
論文 参考訳(メタデータ) (2021-09-06T14:52:58Z) - Typing assumptions improve identification in causal discovery [123.06886784834471]
観測データからの因果発見は、正確な解を常に特定できない難しい課題である。
そこで本研究では,変数の性質に基づいた因果関係を制約する仮説を新たに提案する。
論文 参考訳(メタデータ) (2021-07-22T14:23:08Z) - Disentangling Observed Causal Effects from Latent Confounders using
Method of Moments [67.27068846108047]
我々は、軽度の仮定の下で、識別性と学習可能性に関する保証を提供する。
我々は,線形制約付き結合テンソル分解に基づく効率的なアルゴリズムを開発し,スケーラブルで保証可能な解を得る。
論文 参考訳(メタデータ) (2021-01-17T07:48:45Z) - Information-Theoretic Approximation to Causal Models [0.0]
有限標本から2つの確率変数間の因果方向と因果効果を推定する問題の解法が可能であることを示す。
X と Y のサンプルから生じる分布を高次元確率空間に埋め込む。
本稿では, 線形最適化問題を解くことにより, 因果モデル(IACM)に対する情報理論近似が可能であることを示す。
論文 参考訳(メタデータ) (2020-07-29T18:34:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。