論文の概要: Evaluation of Induced Expert Knowledge in Causal Structure Learning by
NOTEARS
- arxiv url: http://arxiv.org/abs/2301.01817v1
- Date: Wed, 4 Jan 2023 20:39:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-06 13:42:37.117090
- Title: Evaluation of Induced Expert Knowledge in Causal Structure Learning by
NOTEARS
- Title(参考訳): NOTEARSによる因果構造学習におけるエキスパート知識の評価
- Authors: Jawad Chowdhury, Rezaur Rashid, Gabriel Terejanu
- Abstract要約: 非パラメトリックNOTEARSモデルの定式化に使用される追加制約の形で、専門家の知識が因果関係に与える影響について検討する。
その結果, (i) NOTEARSモデルの誤りを正す知識は, 統計的に有意な改善をもたらすこと, (ii) アクティブエッジに対する制約は, 非アクティブエッジよりも因果発見に肯定的な影響を与えること, (iii) 意外なことに, (iii) 誘導された知識は, 平均的な不正確なアクティブエッジおよび/または非アクティブエッジに対して予想以上に正確でないことが判明した。
- 参考スコア(独自算出の注目度): 1.5469452301122175
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Causal modeling provides us with powerful counterfactual reasoning and
interventional mechanism to generate predictions and reason under various
what-if scenarios. However, causal discovery using observation data remains a
nontrivial task due to unobserved confounding factors, finite sampling, and
changes in the data distribution. These can lead to spurious cause-effect
relationships. To mitigate these challenges in practice, researchers augment
causal learning with known causal relations. The goal of the paper is to study
the impact of expert knowledge on causal relations in the form of additional
constraints used in the formulation of the nonparametric NOTEARS. We provide a
comprehensive set of comparative analyses of biasing the model using different
types of knowledge. We found that (i) knowledge that corrects the mistakes of
the NOTEARS model can lead to statistically significant improvements, (ii)
constraints on active edges have a larger positive impact on causal discovery
than inactive edges, and surprisingly, (iii) the induced knowledge does not
correct on average more incorrect active and/or inactive edges than expected.
We also demonstrate the behavior of the model and the effectiveness of domain
knowledge on a real-world dataset.
- Abstract(参考訳): 因果モデリングは、様々な状況下で予測と推論を生成する強力な対実的推論と介入機構を提供する。
しかし、観測データを用いた因果探索は、観測されていない背景因子、有限サンプリング、およびデータ分布の変化による非自明な課題である。
これは原因-影響関係を早める可能性がある。
これらの課題を緩和するために、研究者は既知の因果関係を持つ因果学習を増強する。
本研究の目的は、非パラメトリックNOTEARSの定式化に使用される追加制約の形で、専門家の知識が因果関係に与える影響を研究することである。
我々は、異なるタイプの知識を用いてモデルをバイアスする比較分析の包括的セットを提供する。
私たちはそれを見つけました
i)NOTEARSモデルの誤りを修正する知識は統計的に重要な改善につながる可能性がある。
(ii)アクティブエッジに対する制約は、非アクティブエッジよりも因果発見にプラスの影響が大きい。
(iii) 誘導された知識は、予想よりも平均的に不正確なアクティブエッジ及び/または不アクティブエッジを補正しない。
また、実世界のデータセットにおけるモデルの振る舞いとドメイン知識の有効性を実証する。
関連論文リスト
- DAG-aware Transformer for Causal Effect Estimation [0.8192907805418583]
因果推論は、医療、経済学、社会科学などの分野における重要な課題である。
本稿では,これらの課題を克服する因果推論のためのトランスフォーマーを用いた新しい手法を提案する。
我々のモデルの中核となる革新は、注意機構に直接因果非巡回グラフ(DAG)を統合することである。
論文 参考訳(メタデータ) (2024-10-13T23:17:58Z) - From Pre-training Corpora to Large Language Models: What Factors Influence LLM Performance in Causal Discovery Tasks? [51.42906577386907]
本研究では,因果発見タスクにおけるLarge Language Models(LLM)の性能に影響を与える要因について検討する。
因果関係の頻度が高いことは、より良いモデル性能と相関し、トレーニング中に因果関係の情報に広範囲に暴露することで、因果関係の発見能力を高めることを示唆している。
論文 参考訳(メタデータ) (2024-07-29T01:45:05Z) - Identifiable Latent Polynomial Causal Models Through the Lens of Change [82.14087963690561]
因果表現学習は、観測された低レベルデータから潜在的な高レベル因果表現を明らかにすることを目的としている。
主な課題の1つは、識別可能性(identifiability)として知られるこれらの潜伏因果モデルを特定する信頼性の高い保証を提供することである。
論文 参考訳(メタデータ) (2023-10-24T07:46:10Z) - Interpretable Imitation Learning with Dynamic Causal Relations [65.18456572421702]
得られた知識を有向非巡回因果グラフの形で公開することを提案する。
また、この因果発見プロセスを状態依存的に設計し、潜在因果グラフのダイナミクスをモデル化する。
提案するフレームワークは,動的因果探索モジュール,因果符号化モジュール,予測モジュールの3つの部分から構成され,エンドツーエンドで訓練される。
論文 参考訳(メタデータ) (2023-09-30T20:59:42Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - Quantify the Causes of Causal Emergence: Critical Conditions of
Uncertainty and Asymmetry in Causal Structure [0.5372002358734439]
統計的および情報理論に基づく因果関係の調査は、大規模モデルに興味深い、価値のある課題を提起している。
本稿では,その発生の理論的制約として,因果関係の数値的条件を評価するための枠組みを提案する。
論文 参考訳(メタデータ) (2022-12-03T06:35:54Z) - Active Bayesian Causal Inference [72.70593653185078]
因果発見と推論を統合するための完全ベイズ能動学習フレームワークであるアクティブベイズ因果推論(ABCI)を提案する。
ABCIは因果関係のモデルと関心のクエリを共同で推論する。
我々のアプローチは、完全な因果グラフの学習のみに焦点を当てた、いくつかのベースラインよりも、よりデータ効率が高いことを示す。
論文 参考訳(メタデータ) (2022-06-04T22:38:57Z) - Causal Knowledge Guided Societal Event Forecasting [24.437437565689393]
本稿では,因果効果推定をイベント予測に組み込むディープラーニングフレームワークを提案する。
機能再重み付けモジュールと近似損失を含む2つの頑健な学習モジュールを導入し、事前の知識注入を可能にする。
論文 参考訳(メタデータ) (2021-12-10T17:41:02Z) - A Critical Look At The Identifiability of Causal Effects with Deep
Latent Variable Models [2.326384409283334]
ケーススタディとして因果効果変動オートエンコーダ(CEVAE)を用いる。
CEVAEはいくつかの単純なシナリオで確実に機能するように見えるが、不特定な潜在変数や複雑なデータ分布による正しい因果効果は特定できない。
その結果,識別可能性の問題は無視できないことが明らかとなり,今後の作業でさらに注意を払わなければならないと論じた。
論文 参考訳(メタデータ) (2021-02-12T17:43:18Z) - Influence Functions in Deep Learning Are Fragile [52.31375893260445]
影響関数は、テスト時間予測におけるサンプルの効果を近似する。
影響評価は浅いネットワークでは かなり正確です
ヘッセン正則化は、高品質な影響推定を得るために重要である。
論文 参考訳(メタデータ) (2020-06-25T18:25:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。