論文の概要: Structural Causal Models Are (Solvable by) Credal Networks
- arxiv url: http://arxiv.org/abs/2008.00463v1
- Date: Sun, 2 Aug 2020 11:19:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 19:48:40.008572
- Title: Structural Causal Models Are (Solvable by) Credal Networks
- Title(参考訳): 構造因果モデルは(解決可能な)クレダルネットワークである
- Authors: Marco Zaffalon and Alessandro Antonucci and Rafael Caba\~nas
- Abstract要約: 因果推論は、干潟網の更新のための標準的なアルゴリズムによって得ることができる。
この貢献は, 干潟ネットワークによる構造因果モデルを表現するための体系的なアプローチと見なされるべきである。
実験により, 実規模問題における因果推論には, クレーダルネットワークの近似アルゴリズムがすぐに利用できることがわかった。
- 参考スコア(独自算出の注目度): 70.45873402967297
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A structural causal model is made of endogenous (manifest) and exogenous
(latent) variables. We show that endogenous observations induce linear
constraints on the probabilities of the exogenous variables. This allows to
exactly map a causal model into a credal network. Causal inferences, such as
interventions and counterfactuals, can consequently be obtained by standard
algorithms for the updating of credal nets. These natively return sharp values
in the identifiable case, while intervals corresponding to the exact bounds are
produced for unidentifiable queries. A characterization of the causal models
that allow the map above to be compactly derived is given, along with a
discussion about the scalability for general models. This contribution should
be regarded as a systematic approach to represent structural causal models by
credal networks and hence to systematically compute causal inferences. A number
of demonstrative examples is presented to clarify our methodology. Extensive
experiments show that approximate algorithms for credal networks can
immediately be used to do causal inference in real-size problems.
- Abstract(参考訳): 構造因果モデルは内因性(マニュフェスト)と外因性(ラテント)の変数から成り立っている。
内因性観察は外因性変数の確率に線形制約をもたらすことを示す。
これにより、因果モデルをクレダルネットワークに正確にマッピングすることができる。
その結果、干渉や反事実などの因果推論は、干潟網の更新のための標準的なアルゴリズムによって得ることができる。
これらの値は同定可能なケースでネイティブにシャープ値を返すが、正確な境界に対応する間隔は特定できないクエリに対して生成される。
上記の写像をコンパクトに導出できる因果モデルのキャラクタリゼーションと一般モデルのスケーラビリティに関する議論が与えられる。
この貢献は、構造因果モデルをクレダルネットワークによって表現し、因果推論を体系的に計算するための体系的アプローチと見なされるべきである。
方法論を明確にするために,実証的な例をいくつか紹介する。
広範な実験により、クレーダルネットワークの近似アルゴリズムは、実規模問題において直ちに因果推論を行うことができることが示された。
関連論文リスト
- Estimating Causal Effects from Learned Causal Networks [56.14597641617531]
本稿では、離散可観測変数に対する因果影響クエリに応答する代替パラダイムを提案する。
観測データから直接因果ベイズネットワークとその共起潜伏変数を学習する。
本手法は, 推定手法よりも有効であることを示す。
論文 参考訳(メタデータ) (2024-08-26T08:39:09Z) - Consistency of Neural Causal Partial Identification [17.503562318576414]
因果モデル(Causal Models)の最近の進歩は、因果効果の同定と部分的同定が神経生成モデルによって自動的に行われるかを示した。
連続変数とカテゴリー変数の両方を持つ一般設定において、NCMによる部分的識別の整合性を証明する。
結果は、深さと接続性の観点から、基盤となるニューラルネットワークアーキテクチャの設計の影響を強調している。
論文 参考訳(メタデータ) (2024-05-24T16:12:39Z) - Identifiable Latent Neural Causal Models [82.14087963690561]
因果表現学習は、低レベルの観測データから潜伏した高レベルの因果表現を明らかにすることを目指している。
因果表現の識別可能性に寄与する分布シフトのタイプを決定する。
本稿では,本研究の成果を実用的なアルゴリズムに翻訳し,信頼性の高い潜在因果表現の取得を可能にする。
論文 参考訳(メタデータ) (2024-03-23T04:13:55Z) - General Identifiability and Achievability for Causal Representation
Learning [33.80247458590611]
本稿では,潜伏因果グラフにおけるノード毎の2つのハードアンカップリング介入を用いて,識別可能性と達成性を評価する。
同定可能性について,未結合の介入の下で潜伏因果モデルと変数の完全回復が保証されることを示す。
さらに、この分析は、2つのハードカップリングされた介入に対して、同一ノードが介在する2つの環境に関するメタデータが知られている場合に、識別可能性の結果を回復する。
論文 参考訳(メタデータ) (2023-10-24T01:47:44Z) - Causal Analysis for Robust Interpretability of Neural Networks [0.2519906683279152]
我々は、事前学習されたニューラルネットワークの因果効果を捉えるための頑健な介入に基づく手法を開発した。
分類タスクで訓練された視覚モデルに本手法を適用した。
論文 参考訳(メタデータ) (2023-05-15T18:37:24Z) - Representation Disentaglement via Regularization by Causal
Identification [3.9160947065896803]
本稿では,不整合表現学習における基礎となるデータ生成過程の仮定を記述するために,因果コライダー構造モデルを提案する。
そこで本研究では,大規模生成モデルの挙動を因果同定によって課される絡み合った制約に整合させるモジュール型正規化エンジンReIを提案する。
論文 参考訳(メタデータ) (2023-02-28T23:18:54Z) - Identifying Weight-Variant Latent Causal Models [82.14087963690561]
推移性は潜在因果表現の識別性を阻害する重要な役割を担っている。
いくつかの軽微な仮定の下では、潜伏因果表現が自明な置換とスケーリングまで特定可能であることを示すことができる。
本稿では,その間の因果関係や因果関係を直接学習する構造的caUsAl変分自動エンコーダを提案する。
論文 参考訳(メタデータ) (2022-08-30T11:12:59Z) - The Causal Neural Connection: Expressiveness, Learnability, and
Inference [125.57815987218756]
構造因果モデル (Structuor causal model, SCM) と呼ばれるオブジェクトは、調査中のシステムのランダムな変動のメカニズムと源の集合を表す。
本稿では, 因果的階層定理 (Thm. 1, Bareinboim et al., 2020) がまだニューラルモデルに対して成り立っていることを示す。
我々はニューラル因果モデル(NCM)と呼ばれる特殊なタイプのSCMを導入し、因果推論に必要な構造的制約をエンコードする新しいタイプの帰納バイアスを定式化する。
論文 参考訳(メタデータ) (2021-07-02T01:55:18Z) - Causal Expectation-Maximisation [70.45873402967297]
ポリツリーグラフを特徴とするモデルにおいても因果推論はNPハードであることを示す。
我々は因果EMアルゴリズムを導入し、分類的表現変数のデータから潜伏変数の不確かさを再構築する。
我々は、反事実境界が構造方程式の知識なしにしばしば計算できるというトレンドのアイデアには、目立たずの制限があるように思える。
論文 参考訳(メタデータ) (2020-11-04T10:25:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。