論文の概要: Evaluation of Induced Expert Knowledge in Causal Structure Learning by
NOTEARS
- arxiv url: http://arxiv.org/abs/2301.01817v1
- Date: Wed, 4 Jan 2023 20:39:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-06 13:42:37.117090
- Title: Evaluation of Induced Expert Knowledge in Causal Structure Learning by
NOTEARS
- Title(参考訳): NOTEARSによる因果構造学習におけるエキスパート知識の評価
- Authors: Jawad Chowdhury, Rezaur Rashid, Gabriel Terejanu
- Abstract要約: 非パラメトリックNOTEARSモデルの定式化に使用される追加制約の形で、専門家の知識が因果関係に与える影響について検討する。
その結果, (i) NOTEARSモデルの誤りを正す知識は, 統計的に有意な改善をもたらすこと, (ii) アクティブエッジに対する制約は, 非アクティブエッジよりも因果発見に肯定的な影響を与えること, (iii) 意外なことに, (iii) 誘導された知識は, 平均的な不正確なアクティブエッジおよび/または非アクティブエッジに対して予想以上に正確でないことが判明した。
- 参考スコア(独自算出の注目度): 1.5469452301122175
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Causal modeling provides us with powerful counterfactual reasoning and
interventional mechanism to generate predictions and reason under various
what-if scenarios. However, causal discovery using observation data remains a
nontrivial task due to unobserved confounding factors, finite sampling, and
changes in the data distribution. These can lead to spurious cause-effect
relationships. To mitigate these challenges in practice, researchers augment
causal learning with known causal relations. The goal of the paper is to study
the impact of expert knowledge on causal relations in the form of additional
constraints used in the formulation of the nonparametric NOTEARS. We provide a
comprehensive set of comparative analyses of biasing the model using different
types of knowledge. We found that (i) knowledge that corrects the mistakes of
the NOTEARS model can lead to statistically significant improvements, (ii)
constraints on active edges have a larger positive impact on causal discovery
than inactive edges, and surprisingly, (iii) the induced knowledge does not
correct on average more incorrect active and/or inactive edges than expected.
We also demonstrate the behavior of the model and the effectiveness of domain
knowledge on a real-world dataset.
- Abstract(参考訳): 因果モデリングは、様々な状況下で予測と推論を生成する強力な対実的推論と介入機構を提供する。
しかし、観測データを用いた因果探索は、観測されていない背景因子、有限サンプリング、およびデータ分布の変化による非自明な課題である。
これは原因-影響関係を早める可能性がある。
これらの課題を緩和するために、研究者は既知の因果関係を持つ因果学習を増強する。
本研究の目的は、非パラメトリックNOTEARSの定式化に使用される追加制約の形で、専門家の知識が因果関係に与える影響を研究することである。
我々は、異なるタイプの知識を用いてモデルをバイアスする比較分析の包括的セットを提供する。
私たちはそれを見つけました
i)NOTEARSモデルの誤りを修正する知識は統計的に重要な改善につながる可能性がある。
(ii)アクティブエッジに対する制約は、非アクティブエッジよりも因果発見にプラスの影響が大きい。
(iii) 誘導された知識は、予想よりも平均的に不正確なアクティブエッジ及び/または不アクティブエッジを補正しない。
また、実世界のデータセットにおけるモデルの振る舞いとドメイン知識の有効性を実証する。
関連論文リスト
- Discovery of the Hidden World with Large Language Models [100.38157787218044]
COAT: Causal representatiOn AssistanTについて紹介する。
COATは、非構造化データから潜在的な因果因子を抽出する因子プロジェクタとしてLLMを組み込んでいる。
LLMはデータ値の収集に使用される追加情報を提供するよう指示することもできる。
論文 参考訳(メタデータ) (2024-02-06T12:18:54Z) - Identifiable Latent Polynomial Causal Models Through the Lens of Change [85.67870425656368]
因果表現学習は、観測された低レベルデータから潜在的な高レベル因果表現を明らかにすることを目的としている。
主な課題の1つは、識別可能性(identifiability)として知られるこれらの潜伏因果モデルを特定する信頼性の高い保証を提供することである。
論文 参考訳(メタデータ) (2023-10-24T07:46:10Z) - Interpretable Imitation Learning with Dynamic Causal Relations [65.18456572421702]
得られた知識を有向非巡回因果グラフの形で公開することを提案する。
また、この因果発見プロセスを状態依存的に設計し、潜在因果グラフのダイナミクスをモデル化する。
提案するフレームワークは,動的因果探索モジュール,因果符号化モジュール,予測モジュールの3つの部分から構成され,エンドツーエンドで訓練される。
論文 参考訳(メタデータ) (2023-09-30T20:59:42Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - Quantify the Causes of Causal Emergence: Critical Conditions of
Uncertainty and Asymmetry in Causal Structure [0.5372002358734439]
統計的および情報理論に基づく因果関係の調査は、大規模モデルに興味深い、価値のある課題を提起している。
本稿では,その発生の理論的制約として,因果関係の数値的条件を評価するための枠組みを提案する。
論文 参考訳(メタデータ) (2022-12-03T06:35:54Z) - Active Bayesian Causal Inference [72.70593653185078]
因果発見と推論を統合するための完全ベイズ能動学習フレームワークであるアクティブベイズ因果推論(ABCI)を提案する。
ABCIは因果関係のモデルと関心のクエリを共同で推論する。
我々のアプローチは、完全な因果グラフの学習のみに焦点を当てた、いくつかのベースラインよりも、よりデータ効率が高いことを示す。
論文 参考訳(メタデータ) (2022-06-04T22:38:57Z) - Causal Knowledge Guided Societal Event Forecasting [24.437437565689393]
本稿では,因果効果推定をイベント予測に組み込むディープラーニングフレームワークを提案する。
機能再重み付けモジュールと近似損失を含む2つの頑健な学習モジュールを導入し、事前の知識注入を可能にする。
論文 参考訳(メタデータ) (2021-12-10T17:41:02Z) - A Critical Look At The Identifiability of Causal Effects with Deep
Latent Variable Models [2.326384409283334]
ケーススタディとして因果効果変動オートエンコーダ(CEVAE)を用いる。
CEVAEはいくつかの単純なシナリオで確実に機能するように見えるが、不特定な潜在変数や複雑なデータ分布による正しい因果効果は特定できない。
その結果,識別可能性の問題は無視できないことが明らかとなり,今後の作業でさらに注意を払わなければならないと論じた。
論文 参考訳(メタデータ) (2021-02-12T17:43:18Z) - Estimating Causal Effects with the Neural Autoregressive Density
Estimator [6.59529078336196]
我々は、Pearlのdo-calculusフレームワーク内の因果効果を推定するために、神経自己回帰密度推定器を使用する。
本手法は,変数間の相互作用を明示的にモデル化することなく,非線形システムから因果効果を抽出できることを示す。
論文 参考訳(メタデータ) (2020-08-17T13:12:38Z) - Influence Functions in Deep Learning Are Fragile [52.31375893260445]
影響関数は、テスト時間予測におけるサンプルの効果を近似する。
影響評価は浅いネットワークでは かなり正確です
ヘッセン正則化は、高品質な影響推定を得るために重要である。
論文 参考訳(メタデータ) (2020-06-25T18:25:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。