論文の概要: The Causal Neural Connection: Expressiveness, Learnability, and
Inference
- arxiv url: http://arxiv.org/abs/2107.00793v1
- Date: Fri, 2 Jul 2021 01:55:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-06 02:49:28.361221
- Title: The Causal Neural Connection: Expressiveness, Learnability, and
Inference
- Title(参考訳): 因果的神経結合:表現力、学習力、推論
- Authors: Kevin Xia, Kai-Zhan Lee, Yoshua Bengio, Elias Bareinboim
- Abstract要約: 構造因果モデル (Structuor causal model, SCM) と呼ばれるオブジェクトは、調査中のシステムのランダムな変動のメカニズムと源の集合を表す。
本稿では, 因果的階層定理 (Thm. 1, Bareinboim et al., 2020) がまだニューラルモデルに対して成り立っていることを示す。
我々はニューラル因果モデル(NCM)と呼ばれる特殊なタイプのSCMを導入し、因果推論に必要な構造的制約をエンコードする新しいタイプの帰納バイアスを定式化する。
- 参考スコア(独自算出の注目度): 125.57815987218756
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: One of the central elements of any causal inference is an object called
structural causal model (SCM), which represents a collection of mechanisms and
exogenous sources of random variation of the system under investigation (Pearl,
2000). An important property of many kinds of neural networks is universal
approximability: the ability to approximate any function to arbitrary
precision. Given this property, one may be tempted to surmise that a collection
of neural nets is capable of learning any SCM by training on data generated by
that SCM. In this paper, we show this is not the case by disentangling the
notions of expressivity and learnability. Specifically, we show that the causal
hierarchy theorem (Thm. 1, Bareinboim et al., 2020), which describes the limits
of what can be learned from data, still holds for neural models. For instance,
an arbitrarily complex and expressive neural net is unable to predict the
effects of interventions given observational data alone. Given this result, we
introduce a special type of SCM called a neural causal model (NCM), and
formalize a new type of inductive bias to encode structural constraints
necessary for performing causal inferences. Building on this new class of
models, we focus on solving two canonical tasks found in the literature known
as causal identification and estimation. Leveraging the neural toolbox, we
develop an algorithm that is both sufficient and necessary to determine whether
a causal effect can be learned from data (i.e., causal identifiability); it
then estimates the effect whenever identifiability holds (causal estimation).
Simulations corroborate the proposed approach.
- Abstract(参考訳): 因果推論の中心的な要素の1つは構造因果モデル (Structure causal model, SCM) と呼ばれる対象であり、これは調査中のシステムのランダムな変動のメカニズムと外因性源の集合を表す(Pearl, 2000)。
多くの種類のニューラルネットワークの重要な性質は、任意の関数を任意の精度で近似できる普遍近似性である。
この性質から、ニューラルネットワークの集合がそのSCMによって生成されたデータに基づいてトレーニングすることで、任意のSCMを学習できると推測する誘惑があるかもしれない。
本稿では,表現性や学習可能性の概念を否定することで,この現象は当てはまらないことを示す。
具体的には、因果階層定理(Thm)を示す。
データから学べるものの限界を記述するBareinboim et al., 2020)は、依然としてニューラルモデルに当てはまる。
例えば、任意に複雑で表現力のあるニューラルネットは、観測データのみによる介入の効果を予測できない。
この結果から,ニューラル因果モデル(NCM)と呼ばれる特殊なSCMを導入し,因果推論に必要な構造的制約をエンコードする新しいタイプの帰納バイアスを定式化する。
この新たなモデルに基づいて、因果同定と推定として知られる文献に見られる2つの正準タスクの解決に焦点をあてる。
ニューラルツールボックスを活用することで、データから因果効果を学習できるかどうかを判断するために必要なアルゴリズム(すなわち因果識別可能性)を開発し、識別性が保持されるたびにその効果を推定する(因果推定)。
シミュレーションは提案手法を裏付ける。
関連論文リスト
- Consistency of Neural Causal Partial Identification [17.503562318576414]
因果モデル(Causal Models)の最近の進歩は、因果効果の同定と部分的同定が神経生成モデルによって自動的に行われるかを示した。
連続変数とカテゴリー変数の両方を持つ一般設定において、NCMによる部分的識別の整合性を証明する。
結果は、深さと接続性の観点から、基盤となるニューラルネットワークアーキテクチャの設計の影響を強調している。
論文 参考訳(メタデータ) (2024-05-24T16:12:39Z) - Inferring Inference [7.11780383076327]
我々は,大規模神経活動パターンから標準分散計算を推定するフレームワークを開発した。
確率的グラフィカルモデルに近似推論アルゴリズムを暗黙的に実装したモデル脳のための記録をシミュレートする。
全体として、このフレームワークはニューラル記録の解釈可能な構造を発見するための新しいツールを提供する。
論文 参考訳(メタデータ) (2023-10-04T22:12:11Z) - Neural Dependencies Emerging from Learning Massive Categories [94.77992221690742]
この研究は、大規模画像分類のために学んだニューラルネットワークに関する2つの驚くべき発見を示す。
1) 十分に訓練されたモデルが与えられた場合、いくつかのカテゴリで予測されたロジットは、他のいくつかのカテゴリの予測を線形に組み合わせることで直接得ることができる。
2) 神経依存は1つのモデルに留まらず、2つの独立した学習モデルの間にさえ存在する。
論文 参考訳(メタデータ) (2022-11-21T09:42:15Z) - Neural Causal Models for Counterfactual Identification and Estimation [62.30444687707919]
本稿では,ニューラルモデルによる反事実文の評価について検討する。
まず、神経因果モデル(NCM)が十分に表現可能であることを示す。
第2に,反事実分布の同時同定と推定を行うアルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-09-30T18:29:09Z) - Relating Graph Neural Networks to Structural Causal Models [17.276657786213015]
因果関係は、興味のある変数とその力学関係に関する情報を伝達する構造因果モデル(SCM)によって記述することができる。
本稿では,GNNとSCMの新たな接続を確立する理論解析について述べる。
次に、GNNに基づく因果推論のための新しいモデルクラスを構築し、因果効果の同定に十分である。
論文 参考訳(メタデータ) (2021-09-09T11:16:31Z) - Learning Neural Causal Models with Active Interventions [83.44636110899742]
本稿では,データ生成プロセスの根底にある因果構造を素早く識別する能動的介入ターゲット機構を提案する。
本手法は,ランダムな介入ターゲティングと比較して,要求される対話回数を大幅に削減する。
シミュレーションデータから実世界のデータまで,複数のベンチマークにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2021-09-06T13:10:37Z) - Systematic Evaluation of Causal Discovery in Visual Model Based
Reinforcement Learning [76.00395335702572]
AIと因果関係の中心的な目標は、抽象表現と因果構造を共同で発見することである。
因果誘導を研究するための既存の環境は、複雑なタスク固有の因果グラフを持つため、この目的には適していない。
本研究の目的は,高次変数の学習表現と因果構造の研究を促進することである。
論文 参考訳(メタデータ) (2021-07-02T05:44:56Z) - Structural Causal Models Are (Solvable by) Credal Networks [70.45873402967297]
因果推論は、干潟網の更新のための標準的なアルゴリズムによって得ることができる。
この貢献は, 干潟ネットワークによる構造因果モデルを表現するための体系的なアプローチと見なされるべきである。
実験により, 実規模問題における因果推論には, クレーダルネットワークの近似アルゴリズムがすぐに利用できることがわかった。
論文 参考訳(メタデータ) (2020-08-02T11:19:36Z) - Bayesian Neural Networks [0.0]
ニューラルネットワークによる予測におけるエラーを原理的に得る方法を示し、これらのエラーを特徴付ける2つの方法を提案する。
さらに、これらの2つのメソッドが実際に実施される際に、重大な落とし穴を持つ方法についても説明します。
論文 参考訳(メタデータ) (2020-06-02T09:43:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。