論文の概要: Neural Causal Models for Counterfactual Identification and Estimation
- arxiv url: http://arxiv.org/abs/2210.00035v1
- Date: Fri, 30 Sep 2022 18:29:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 16:10:59.341449
- Title: Neural Causal Models for Counterfactual Identification and Estimation
- Title(参考訳): 偽物同定と推定のための神経因果モデル
- Authors: Kevin Xia, Yushu Pan, Elias Bareinboim
- Abstract要約: 本稿では,ニューラルモデルによる反事実文の評価について検討する。
まず、神経因果モデル(NCM)が十分に表現可能であることを示す。
第2に,反事実分布の同時同定と推定を行うアルゴリズムを開発する。
- 参考スコア(独自算出の注目度): 62.30444687707919
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Evaluating hypothetical statements about how the world would be had a
different course of action been taken is arguably one key capability expected
from modern AI systems. Counterfactual reasoning underpins discussions in
fairness, the determination of blame and responsibility, credit assignment, and
regret. In this paper, we study the evaluation of counterfactual statements
through neural models. Specifically, we tackle two causal problems required to
make such evaluations, i.e., counterfactual identification and estimation from
an arbitrary combination of observational and experimental data. First, we show
that neural causal models (NCMs) are expressive enough and encode the
structural constraints necessary for performing counterfactual reasoning.
Second, we develop an algorithm for simultaneously identifying and estimating
counterfactual distributions. We show that this algorithm is sound and complete
for deciding counterfactual identification in general settings. Third,
considering the practical implications of these results, we introduce a new
strategy for modeling NCMs using generative adversarial networks. Simulations
corroborate with the proposed methodology.
- Abstract(参考訳): 現代のAIシステムから期待される重要な能力の1つは、世界がどのように異なる行動の過程を取るかという仮説的な主張を評価することである。
事実的推論は、公平性、責任と責任の決定、信用の割り当て、後悔の議論の基盤となる。
本稿では,神経モデルによる偽文の評価について検討する。
具体的には,観測データと実験データの任意の組み合わせから,その評価に必要な2つの因果問題,すなわち反事実同定と推定に取り組む。
まず,ニューラル因果モデル (NCM) が十分表現可能であることを示し,反実的推論を行うために必要な構造的制約を符号化する。
次に,反事実分布の同時同定と推定を行うアルゴリズムを開発した。
本アルゴリズムは, 一般の設定において, 反事実識別を行うために, 健全かつ完全であることを示す。
第3に,これらの結果の実際的意義を考慮し,生成型逆ネットワークを用いたncmsモデリングのための新しい戦略を提案する。
シミュレーションは提案手法と相関する。
関連論文リスト
- Toward Understanding the Disagreement Problem in Neural Network Feature Attribution [0.8057006406834466]
ニューラルネットワークは 複雑なパターンと関係を 生のデータから識別する
これらのブラックボックスモデルの内部動作を理解することは、依然として難しいが、高い意思決定には不可欠である。
我々の研究は、説明の基本的な、分布的な振る舞いを調査することによって、この混乱に対処する。
論文 参考訳(メタデータ) (2024-04-17T12:45:59Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Benchmarking Instance-Centric Counterfactual Algorithms for XAI: From White Box to Black Box [0.26388783516590225]
異なる機械学習モデルは、カウンターファクトの説明の生成にほとんど影響を与えない。
近接損失関数を一意に基礎とする対実的アルゴリズムは動作不可能であり、意味のある説明は提供しない。
カウンターファクトインスペクション分析は、カウンターファクトインスペクションの堅牢性を確保するために強く推奨される。
論文 参考訳(メタデータ) (2022-03-04T16:08:21Z) - Deep Learning Reproducibility and Explainable AI (XAI) [9.13755431537592]
ディープラーニング(DL)学習アルゴリズムの非決定性とそのニューラルネットワーク(NN)モデルの説明可能性への影響について検討した。
この問題について議論するため、2つの畳み込みニューラルネットワーク(CNN)をトレーニングし、その結果を比較した。
論文 参考訳(メタデータ) (2022-02-23T12:06:20Z) - The Causal Neural Connection: Expressiveness, Learnability, and
Inference [125.57815987218756]
構造因果モデル (Structuor causal model, SCM) と呼ばれるオブジェクトは、調査中のシステムのランダムな変動のメカニズムと源の集合を表す。
本稿では, 因果的階層定理 (Thm. 1, Bareinboim et al., 2020) がまだニューラルモデルに対して成り立っていることを示す。
我々はニューラル因果モデル(NCM)と呼ばれる特殊なタイプのSCMを導入し、因果推論に必要な構造的制約をエンコードする新しいタイプの帰納バイアスを定式化する。
論文 参考訳(メタデータ) (2021-07-02T01:55:18Z) - Double Robust Representation Learning for Counterfactual Prediction [68.78210173955001]
そこで本稿では, 対実予測のための2次ロバスト表現を学習するための, スケーラブルな新しい手法を提案する。
我々は、個々の治療効果と平均的な治療効果の両方に対して、堅牢で効率的な対実的予測を行う。
このアルゴリズムは,実世界の最先端技術と合成データとの競合性能を示す。
論文 参考訳(メタデータ) (2020-10-15T16:39:26Z) - Structural Causal Models Are (Solvable by) Credal Networks [70.45873402967297]
因果推論は、干潟網の更新のための標準的なアルゴリズムによって得ることができる。
この貢献は, 干潟ネットワークによる構造因果モデルを表現するための体系的なアプローチと見なされるべきである。
実験により, 実規模問題における因果推論には, クレーダルネットワークの近似アルゴリズムがすぐに利用できることがわかった。
論文 参考訳(メタデータ) (2020-08-02T11:19:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。