論文の概要: Structural Causal Models Are (Solvable by) Credal Networks
- arxiv url: http://arxiv.org/abs/2008.00463v1
- Date: Sun, 2 Aug 2020 11:19:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 19:48:40.008572
- Title: Structural Causal Models Are (Solvable by) Credal Networks
- Title(参考訳): 構造因果モデルは(解決可能な)クレダルネットワークである
- Authors: Marco Zaffalon and Alessandro Antonucci and Rafael Caba\~nas
- Abstract要約: 因果推論は、干潟網の更新のための標準的なアルゴリズムによって得ることができる。
この貢献は, 干潟ネットワークによる構造因果モデルを表現するための体系的なアプローチと見なされるべきである。
実験により, 実規模問題における因果推論には, クレーダルネットワークの近似アルゴリズムがすぐに利用できることがわかった。
- 参考スコア(独自算出の注目度): 70.45873402967297
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A structural causal model is made of endogenous (manifest) and exogenous
(latent) variables. We show that endogenous observations induce linear
constraints on the probabilities of the exogenous variables. This allows to
exactly map a causal model into a credal network. Causal inferences, such as
interventions and counterfactuals, can consequently be obtained by standard
algorithms for the updating of credal nets. These natively return sharp values
in the identifiable case, while intervals corresponding to the exact bounds are
produced for unidentifiable queries. A characterization of the causal models
that allow the map above to be compactly derived is given, along with a
discussion about the scalability for general models. This contribution should
be regarded as a systematic approach to represent structural causal models by
credal networks and hence to systematically compute causal inferences. A number
of demonstrative examples is presented to clarify our methodology. Extensive
experiments show that approximate algorithms for credal networks can
immediately be used to do causal inference in real-size problems.
- Abstract(参考訳): 構造因果モデルは内因性(マニュフェスト)と外因性(ラテント)の変数から成り立っている。
内因性観察は外因性変数の確率に線形制約をもたらすことを示す。
これにより、因果モデルをクレダルネットワークに正確にマッピングすることができる。
その結果、干渉や反事実などの因果推論は、干潟網の更新のための標準的なアルゴリズムによって得ることができる。
これらの値は同定可能なケースでネイティブにシャープ値を返すが、正確な境界に対応する間隔は特定できないクエリに対して生成される。
上記の写像をコンパクトに導出できる因果モデルのキャラクタリゼーションと一般モデルのスケーラビリティに関する議論が与えられる。
この貢献は、構造因果モデルをクレダルネットワークによって表現し、因果推論を体系的に計算するための体系的アプローチと見なされるべきである。
方法論を明確にするために,実証的な例をいくつか紹介する。
広範な実験により、クレーダルネットワークの近似アルゴリズムは、実規模問題において直ちに因果推論を行うことができることが示された。
関連論文リスト
- General Identifiability and Achievability for Causal Representation
Learning [33.80247458590611]
本稿では,潜伏因果グラフにおけるノード毎の2つのハードアンカップリング介入を用いて,識別可能性と達成性を評価する。
同定可能性について,未結合の介入の下で潜伏因果モデルと変数の完全回復が保証されることを示す。
さらに、この分析は、2つのハードカップリングされた介入に対して、同一ノードが介在する2つの環境に関するメタデータが知られている場合に、識別可能性の結果を回復する。
論文 参考訳(メタデータ) (2023-10-24T01:47:44Z) - Identifiability Guarantees for Causal Disentanglement from Soft
Interventions [26.435199501882806]
因果解離は因果モデルを通して相互に関係する潜伏変数を用いてデータの表現を明らかにすることを目的としている。
本稿では,各介入が潜伏変数のメカニズムを変えることにより,未ペアの観測データと介入データが利用可能となるシナリオに焦点を当てる。
因果変数が完全に観測されると、忠実性の仮定の下で因果モデルを特定するために統計的に一貫したアルゴリズムが開発された。
論文 参考訳(メタデータ) (2023-07-12T15:39:39Z) - Towards Characterizing Domain Counterfactuals For Invertible Latent
Causal Models [16.96946087576007]
制約の少ない仮定でドメインの偽物推定を改善することを目的としている。
ドメイン対実的に等価なモデルを定義し、等価なモデルに必要な十分な性質を証明します。
この驚くべき結果は、最後の$k$遅延変数にのみ介入できるモデル設計が、反ファクトのモデル推定を改善することを示唆している。
論文 参考訳(メタデータ) (2023-06-20T04:19:06Z) - Causal Analysis for Robust Interpretability of Neural Networks [0.2519906683279152]
我々は、事前学習されたニューラルネットワークの因果効果を捉えるための頑健な介入に基づく手法を開発した。
分類タスクで訓練された視覚モデルに本手法を適用した。
論文 参考訳(メタデータ) (2023-05-15T18:37:24Z) - Representation Disentaglement via Regularization by Causal
Identification [3.9160947065896803]
本稿では,不整合表現学習における基礎となるデータ生成過程の仮定を記述するために,因果コライダー構造モデルを提案する。
そこで本研究では,大規模生成モデルの挙動を因果同定によって課される絡み合った制約に整合させるモジュール型正規化エンジンReIを提案する。
論文 参考訳(メタデータ) (2023-02-28T23:18:54Z) - The Causal Neural Connection: Expressiveness, Learnability, and
Inference [125.57815987218756]
構造因果モデル (Structuor causal model, SCM) と呼ばれるオブジェクトは、調査中のシステムのランダムな変動のメカニズムと源の集合を表す。
本稿では, 因果的階層定理 (Thm. 1, Bareinboim et al., 2020) がまだニューラルモデルに対して成り立っていることを示す。
我々はニューラル因果モデル(NCM)と呼ばれる特殊なタイプのSCMを導入し、因果推論に必要な構造的制約をエンコードする新しいタイプの帰納バイアスを定式化する。
論文 参考訳(メタデータ) (2021-07-02T01:55:18Z) - Variational Causal Networks: Approximate Bayesian Inference over Causal
Structures [132.74509389517203]
離散DAG空間上の自己回帰分布をモデル化したパラメトリック変分族を導入する。
実験では,提案した変分後部が真の後部を良好に近似できることを示した。
論文 参考訳(メタデータ) (2021-06-14T17:52:49Z) - Causal Expectation-Maximisation [70.45873402967297]
ポリツリーグラフを特徴とするモデルにおいても因果推論はNPハードであることを示す。
我々は因果EMアルゴリズムを導入し、分類的表現変数のデータから潜伏変数の不確かさを再構築する。
我々は、反事実境界が構造方程式の知識なしにしばしば計算できるというトレンドのアイデアには、目立たずの制限があるように思える。
論文 参考訳(メタデータ) (2020-11-04T10:25:13Z) - CausalVAE: Structured Causal Disentanglement in Variational Autoencoder [52.139696854386976]
変分オートエンコーダ(VAE)の枠組みは、観測から独立した因子をアンタングルするために一般的に用いられる。
本稿では, 因果内因性因子を因果内因性因子に変換する因果層を含むVOEベースの新しいフレームワークCausalVAEを提案する。
その結果、CausalVAEが学習した因果表現は意味論的に解釈可能であり、DAG(Directed Acyclic Graph)としての因果関係は精度良く同定された。
論文 参考訳(メタデータ) (2020-04-18T20:09:34Z) - A Critical View of the Structural Causal Model [89.43277111586258]
相互作用を全く考慮せずに原因と効果を識別できることが示される。
本稿では,因果モデルの絡み合った構造を模倣する新たな逆行訓練法を提案する。
我々の多次元手法は, 合成および実世界の両方のデータセットにおいて, 文献的手法よりも優れている。
論文 参考訳(メタデータ) (2020-02-23T22:52:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。