論文の概要: Do-calculus enables causal reasoning with latent variable models
- arxiv url: http://arxiv.org/abs/2102.06626v1
- Date: Fri, 12 Feb 2021 17:12:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-15 13:04:51.782510
- Title: Do-calculus enables causal reasoning with latent variable models
- Title(参考訳): Do-calculusは潜在変数モデルによる因果推論を可能にする
- Authors: Sara Mohammad-Taheri and Robert Ness and Jeremy Zucker and Olga Vitek
- Abstract要約: 潜在変数モデル(LVM)は、トレーニング中に変数の一部が隠蔽される確率モデルである。
因果推論は,確率的モデリングコミュニティで長年確立されてきた幅広いlvmのクラスを拡張できることを示す。
- 参考スコア(独自算出の注目度): 2.294014185517203
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Latent variable models (LVMs) are probabilistic models where some of the
variables are hidden during training. A broad class of LVMshave a directed
acyclic graphical structure. The directed structure suggests an intuitive
causal explanation of the data generating process. For example, a latent topic
model suggests that topics cause the occurrence of a token. Despite this
intuitive causal interpretation, a directed acyclic latent variable model
trained on data is generally insufficient for causal reasoning, as the required
model parameters may not be uniquely identified. In this manuscript we
demonstrate that an LVM can answer any causal query posed post-training,
provided that the query can be identified from the observed variables according
to the do-calculus rules. We show that causal reasoning can enhance a broad
class of LVM long established in the probabilistic modeling community, and
demonstrate its effectiveness on several case studies. These include a machine
learning model with multiple causes where there exists a set of latent
confounders and a mediator between the causes and the outcome variable, a study
where the identifiable causal query cannot be estimated using the front-door or
back-door criterion, a case study that captures unobserved crosstalk between
two biological signaling pathways, and a COVID-19 expert system that identifies
multiple causal queries.
- Abstract(参考訳): 潜在変数モデル(LVM)は、トレーニング中に変数の一部が隠蔽される確率モデルである。
LVM の幅広いクラスは、有向非巡回的グラフィカル構造を形作る。
指示された構造は、データ生成プロセスの直感的な説明を示唆する。
例えば、潜在トピックモデルは、トピックがトークンの発生を引き起こすことを示唆している。
この直感的な因果解釈にもかかわらず、データに基づいて訓練された有向非巡回潜在変数モデルは一般に因果推論には不十分である。
本書では,学習後に提案される因果クエリにLVMが応答できることを示し,ドカルスルールに従って,観測変数からクエリを識別できることを仮定する。
因果推論は,確率的モデリングコミュニティで長く確立されてきた幅広いlvmクラスを強化し,いくつかのケーススタディでその効果を示す。
これには、原因と結果変数の間に潜伏した共同創設者と仲介者が存在する複数の原因を持つ機械学習モデル、前方または後方の基準を用いて識別可能な因果クエリを推定できない研究、2つの生物学的シグナル伝達経路間の未観測のクロストークをキャプチャするケーススタディ、複数の因果クエリを識別するCOVID-19エキスパートシステムが含まれる。
関連論文リスト
- Linear Causal Disentanglement via Interventions [8.444187296409051]
因果解離は因果モデルを通して相互に関連する潜伏変数を含むデータの表現を求める。
線形潜在因果モデルの線形変換である観測変数について検討した。
論文 参考訳(メタデータ) (2022-11-29T18:43:42Z) - Causal Discovery in Linear Latent Variable Models Subject to Measurement
Error [29.78435955758185]
線形系における測定誤差の存在下での因果発見に着目した。
我々は、この問題と因果発見の驚くべき関連性を、観察されていない親性原因の存在で示している。
論文 参考訳(メタデータ) (2022-11-08T03:43:14Z) - Causal Discovery in Linear Structural Causal Models with Deterministic
Relations [27.06618125828978]
我々は因果発見の課題と観察データに焦点をあてる。
因果構造の特異な識別に必要かつ十分な条件のセットを導出する。
論文 参考訳(メタデータ) (2021-10-30T21:32:42Z) - Typing assumptions improve identification in causal discovery [123.06886784834471]
観測データからの因果発見は、正確な解を常に特定できない難しい課題である。
そこで本研究では,変数の性質に基づいた因果関係を制約する仮説を新たに提案する。
論文 参考訳(メタデータ) (2021-07-22T14:23:08Z) - Systematic Evaluation of Causal Discovery in Visual Model Based
Reinforcement Learning [76.00395335702572]
AIと因果関係の中心的な目標は、抽象表現と因果構造を共同で発見することである。
因果誘導を研究するための既存の環境は、複雑なタスク固有の因果グラフを持つため、この目的には適していない。
本研究の目的は,高次変数の学習表現と因果構造の研究を促進することである。
論文 参考訳(メタデータ) (2021-07-02T05:44:56Z) - Variational Causal Networks: Approximate Bayesian Inference over Causal
Structures [132.74509389517203]
離散DAG空間上の自己回帰分布をモデル化したパラメトリック変分族を導入する。
実験では,提案した変分後部が真の後部を良好に近似できることを示した。
論文 参考訳(メタデータ) (2021-06-14T17:52:49Z) - Structural Causal Models Are (Solvable by) Credal Networks [70.45873402967297]
因果推論は、干潟網の更新のための標準的なアルゴリズムによって得ることができる。
この貢献は, 干潟ネットワークによる構造因果モデルを表現するための体系的なアプローチと見なされるべきである。
実験により, 実規模問題における因果推論には, クレーダルネットワークの近似アルゴリズムがすぐに利用できることがわかった。
論文 参考訳(メタデータ) (2020-08-02T11:19:36Z) - CausalVAE: Structured Causal Disentanglement in Variational Autoencoder [52.139696854386976]
変分オートエンコーダ(VAE)の枠組みは、観測から独立した因子をアンタングルするために一般的に用いられる。
本稿では, 因果内因性因子を因果内因性因子に変換する因果層を含むVOEベースの新しいフレームワークCausalVAEを提案する。
その結果、CausalVAEが学習した因果表現は意味論的に解釈可能であり、DAG(Directed Acyclic Graph)としての因果関係は精度良く同定された。
論文 参考訳(メタデータ) (2020-04-18T20:09:34Z) - A Critical View of the Structural Causal Model [89.43277111586258]
相互作用を全く考慮せずに原因と効果を識別できることが示される。
本稿では,因果モデルの絡み合った構造を模倣する新たな逆行訓練法を提案する。
我々の多次元手法は, 合成および実世界の両方のデータセットにおいて, 文献的手法よりも優れている。
論文 参考訳(メタデータ) (2020-02-23T22:52:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。