論文の概要: Counterfactual (Non-)identifiability of Learned Structural Causal Models
- arxiv url: http://arxiv.org/abs/2301.09031v1
- Date: Sun, 22 Jan 2023 00:58:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-24 15:14:57.074081
- Title: Counterfactual (Non-)identifiability of Learned Structural Causal Models
- Title(参考訳): 学習構造因果モデルの逆(非)識別可能性
- Authors: Arash Nasr-Esfahany, Emre Kiciman
- Abstract要約: 我々は、観測データから反実的推論の非識別性について、実践者に警告する。
本稿では,学習したDSCMの予測結果の最悪のケースエラーを推定する手法を提案する。
- 参考スコア(独自算出の注目度): 10.102073937554488
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in probabilistic generative modeling have motivated learning
Structural Causal Models (SCM) from observational datasets using deep
conditional generative models, also known as Deep Structural Causal Models
(DSCM). If successful, DSCMs can be utilized for causal estimation tasks, e.g.,
for answering counterfactual queries. In this work, we warn practitioners about
non-identifiability of counterfactual inference from observational data, even
in the absence of unobserved confounding and assuming known causal structure.
We prove counterfactual identifiability of monotonic generation mechanisms with
single dimensional exogenous variables. For general generation mechanisms with
multi-dimensional exogenous variables, we provide an impossibility result for
counterfactual identifiability, motivating the need for parametric assumptions.
As a practical approach, we propose a method for estimating worst-case errors
of learned DSCMs' counterfactual predictions. The size of this error can be an
essential metric for deciding whether or not DSCMs are a viable approach for
counterfactual inference in a specific problem setting. In evaluation, our
method confirms negligible counterfactual errors for an identifiable SCM from
prior work, and also provides informative error bounds on counterfactual errors
for a non-identifiable synthetic SCM.
- Abstract(参考訳): 近年の確率的生成モデルの発展は、深部構造因果モデル(dscm)として知られる深部条件生成モデルを用いて観測データセットから構造因果モデル(scm)を学習する動機付けとなっている。
もし成功すれば、DSCMは因果推定タスク、例えば、反事実クエリの応答に利用できる。
本研究では,観測データからの反実的推論の非正当性について,未観測の混在や既知の因果構造を仮定しても警告する。
単調生成機構と単一次元外因性変数の相反性を示す。
多次元外因性変数を持つ一般的な生成機構に対しては、パラメトリックな仮定の必要性を動機として、反ファクト的識別性に対する不可能な結果を提供する。
そこで本研究では,学習したDSCMの予測誤りを推定する手法を提案する。
この誤差の大きさは、DSCMが特定の問題設定における反実的推論の実行可能なアプローチであるかどうかを決定するための重要な指標となる。
評価において,本手法は先行作業から識別可能なSCMに対する無視可能な偽事実誤差を確認し,非識別可能な合成SCMに対する偽事実誤りに関する情報的エラー境界を提供する。
関連論文リスト
- Neural Causal Models for Counterfactual Identification and Estimation [62.30444687707919]
本稿では,ニューラルモデルによる反事実文の評価について検討する。
まず、神経因果モデル(NCM)が十分に表現可能であることを示す。
第2に,反事実分布の同時同定と推定を行うアルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-09-30T18:29:09Z) - Causality-Based Multivariate Time Series Anomaly Detection [63.799474860969156]
我々は、因果的観点から異常検出問題を定式化し、多変量データを生成するための通常の因果的メカニズムに従わない事例として、異常を考察する。
次に、まずデータから因果構造を学習し、次に、あるインスタンスが局所因果機構に対して異常であるかどうかを推定する因果検出手法を提案する。
我々は、実世界のAIOpsアプリケーションに関するケーススタディと同様に、シミュレートされたデータセットとパブリックなデータセットの両方を用いて、私たちのアプローチを評価します。
論文 参考訳(メタデータ) (2022-06-30T06:00:13Z) - MissDAG: Causal Discovery in the Presence of Missing Data with
Continuous Additive Noise Models [78.72682320019737]
不完全な観測データから因果発見を行うため,MissDAGと呼ばれる一般的な手法を開発した。
MissDAGは、期待-最大化の枠組みの下で観測の可視部分の期待される可能性を最大化する。
各種因果探索アルゴリズムを組み込んだMissDAGの柔軟性について,広範囲なシミュレーションと実データ実験により検証した。
論文 参考訳(メタデータ) (2022-05-27T09:59:46Z) - The worst of both worlds: A comparative analysis of errors in learning
from data in psychology and machine learning [17.336655978572583]
機械学習(ML)が誤診や複製の危機に直面しているという最近の懸念は、ML研究で公表された主張の一部が対面価値で評価できないことを示唆している。
教師付きMLにおける研究の関心事は、実験科学における複製危機と共通している。
論文 参考訳(メタデータ) (2022-03-12T18:26:24Z) - Diffusion Causal Models for Counterfactual Estimation [18.438307666925425]
本稿では,観測画像データから因果構造を推定する作業について考察する。
Diff-SCMは,近年の発電エネルギーモデルの発展を基盤とした構造因果モデルである。
Diff-SCMはMNISTデータに基づくベースラインよりも現実的で最小限のデファクトアルを生成しており、ImageNetデータにも適用可能である。
論文 参考訳(メタデータ) (2022-02-21T12:23:01Z) - The Causal Neural Connection: Expressiveness, Learnability, and
Inference [125.57815987218756]
構造因果モデル (Structuor causal model, SCM) と呼ばれるオブジェクトは、調査中のシステムのランダムな変動のメカニズムと源の集合を表す。
本稿では, 因果的階層定理 (Thm. 1, Bareinboim et al., 2020) がまだニューラルモデルに対して成り立っていることを示す。
我々はニューラル因果モデル(NCM)と呼ばれる特殊なタイプのSCMを導入し、因果推論に必要な構造的制約をエンコードする新しいタイプの帰納バイアスを定式化する。
論文 参考訳(メタデータ) (2021-07-02T01:55:18Z) - Variational Causal Networks: Approximate Bayesian Inference over Causal
Structures [132.74509389517203]
離散DAG空間上の自己回帰分布をモデル化したパラメトリック変分族を導入する。
実験では,提案した変分後部が真の後部を良好に近似できることを示した。
論文 参考訳(メタデータ) (2021-06-14T17:52:49Z) - Identification of Latent Variables From Graphical Model Residuals [0.0]
本稿では,推定モデルの残差から遅延空間のプロキシを反復的に導出することにより,DAGを推定する際に潜伏空間を制御する新しい手法を提案する。
結果の予測の改善は本質的にカプセル化されており,既成モデルと比較して一定の限界を超えないことを示す。
論文 参考訳(メタデータ) (2021-01-07T02:28:49Z) - Structural Causal Models Are (Solvable by) Credal Networks [70.45873402967297]
因果推論は、干潟網の更新のための標準的なアルゴリズムによって得ることができる。
この貢献は, 干潟ネットワークによる構造因果モデルを表現するための体系的なアプローチと見なされるべきである。
実験により, 実規模問題における因果推論には, クレーダルネットワークの近似アルゴリズムがすぐに利用できることがわかった。
論文 参考訳(メタデータ) (2020-08-02T11:19:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。