論文の概要: Linking a predictive model to causal effect estimation
- arxiv url: http://arxiv.org/abs/2304.04566v1
- Date: Mon, 10 Apr 2023 13:08:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-11 14:58:46.928872
- Title: Linking a predictive model to causal effect estimation
- Title(参考訳): 因果効果推定への予測モデルの適用
- Authors: Jiuyong Li, Lin Liu, Ziqi Xu, Ha Xuan Tran, Thuc Duy Le, Jixue Liu
- Abstract要約: 本稿では、まず、ある事例における結果に対する特徴(治療としての)の因果効果を推定する挑戦に取り組む。
理論的結果は、予測モデルを因果効果推定に自然に関連付け、予測モデルが因果的解釈可能であることを示唆する。
本稿では, 種々の予測モデルを用いて, 条件を満たす場合, 特徴の因果効果を, 最先端の因果効果推定法と同じくらい正確に推定できることを実証する。
- 参考スコア(独自算出の注目度): 21.869233469885856
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A predictive model makes outcome predictions based on some given features,
i.e., it estimates the conditional probability of the outcome given a feature
vector. In general, a predictive model cannot estimate the causal effect of a
feature on the outcome, i.e., how the outcome will change if the feature is
changed while keeping the values of other features unchanged. This is because
causal effect estimation requires interventional probabilities. However, many
real world problems such as personalised decision making, recommendation, and
fairness computing, need to know the causal effect of any feature on the
outcome for a given instance. This is different from the traditional causal
effect estimation problem with a fixed treatment variable. This paper first
tackles the challenge of estimating the causal effect of any feature (as the
treatment) on the outcome w.r.t. a given instance. The theoretical results
naturally link a predictive model to causal effect estimations and imply that a
predictive model is causally interpretable when the conditions identified in
the paper are satisfied. The paper also reveals the robust property of a
causally interpretable model. We use experiments to demonstrate that various
types of predictive models, when satisfying the conditions identified in this
paper, can estimate the causal effects of features as accurately as
state-of-the-art causal effect estimation methods. We also show the potential
of such causally interpretable predictive models for robust predictions and
personalised decision making.
- Abstract(参考訳): 予測モデルは、与えられた特徴、すなわち特徴ベクトルが与えられた結果の条件付き確率に基づいて結果予測を行う。
一般に、予測モデルは、結果に対する特徴の因果効果、すなわち、他の特徴の値を変更せずに、その特徴が変更されると結果がどのように変化するかを予測することができない。
これは因果効果推定が介入確率を必要とするためである。
しかしながら、パーソナライズされた意思決定、レコメンデーション、公平性計算のような現実世界の多くの問題は、あるインスタンスの結果に対するどんな特徴の因果効果も知る必要がある。
これは、固定された処置変数を持つ従来の因果効果推定問題とは異なる。
本稿ではまず,任意の特徴(治療として)の帰結w.r.t.に対する因果効果を推定する課題に取り組む。
理論的結果は自然に予測モデルと因果効果推定を関連付け、論文で特定された条件が満たされた場合に因果的に予測モデルが解釈可能であることを暗示する。
また,因果解釈モデルのロバスト性についても明らかにした。
本稿では, 種々の予測モデルを用いて, 条件を満たす場合, 特徴の因果効果を, 最先端の因果効果推定法と同じくらい正確に推定できることを実証する。
また、ロバストな予測と個人化された意思決定のための因果的解釈可能な予測モデルの可能性を示す。
関連論文リスト
- Linking Model Intervention to Causal Interpretation in Model Explanation [34.21877996496178]
直感的なモデル介入効果が因果解釈を持つ場合の条件について検討する。
この研究はモデルの介入効果とモデルの因果解釈を結びつける。
半合成データセットの実験は、定理を検証し、モデルの解釈にモデル介入効果を使用する可能性を示す。
論文 参考訳(メタデータ) (2024-10-21T05:16:59Z) - Estimating Causal Effects from Learned Causal Networks [56.14597641617531]
本稿では、離散可観測変数に対する因果影響クエリに応答する代替パラダイムを提案する。
観測データから直接因果ベイズネットワークとその共起潜伏変数を学習する。
本手法は, 推定手法よりも有効であることを示す。
論文 参考訳(メタデータ) (2024-08-26T08:39:09Z) - An evaluation framework for comparing causal inference models [3.1372269816123994]
提案手法を用いて、いくつかの最先端因果効果推定モデルを比較した。
このアプローチの背後にある主な動機は、少数のインスタンスやシミュレーションがベンチマークプロセスに与える影響を取り除くことである。
論文 参考訳(メタデータ) (2022-08-31T21:04:20Z) - Predicting from Predictions [18.393971232725015]
観測データから,結果に対する予測の因果的影響を同定する方法について検討した。
予測から予測する教師あり学習は,特徴,予測,結果の間の伝達可能な機能的関係を見出すことができることを示す。
論文 参考訳(メタデータ) (2022-08-15T16:57:02Z) - Explanatory causal effects for model agnostic explanations [27.129579550130423]
機械学習モデルを用いて、特定のインスタンスの予測に対する特徴の寄与を推定する問題について検討する。
課題は、既存の因果効果のほとんどは、既知の因果グラフなしではデータから推定できないことである。
仮説的理想実験に基づいて説明的因果効果を定義する。
論文 参考訳(メタデータ) (2022-06-23T08:25:31Z) - Variance Minimization in the Wasserstein Space for Invariant Causal
Prediction [72.13445677280792]
そこで本研究では,ICPで行ったアプローチを,予測器数で線形にスケールする一連の非パラメトリックテストとして再検討する。
これらのテストはそれぞれ、最適輸送理論の道具から導かれる新しい損失関数の最小化に依存している。
我々は,本手法が同定可能な直接原因の集合を回復できるという軽微な仮定の下で証明し,他のベンチマーク因果探索アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2021-10-13T22:30:47Z) - Estimation of Bivariate Structural Causal Models by Variational Gaussian
Process Regression Under Likelihoods Parametrised by Normalising Flows [74.85071867225533]
因果機構は構造因果モデルによって記述できる。
最先端の人工知能の大きな欠点の1つは、説明責任の欠如である。
論文 参考訳(メタデータ) (2021-09-06T14:52:58Z) - When in Doubt: Neural Non-Parametric Uncertainty Quantification for
Epidemic Forecasting [70.54920804222031]
既存の予測モデルは不確実な定量化を無視し、誤校正予測をもたらす。
不確実性を考慮した時系列予測のためのディープニューラルネットワークの最近の研究にもいくつかの制限がある。
本稿では,予測タスクを確率的生成過程としてモデル化し,EPIFNPと呼ばれる機能的ニューラルプロセスモデルを提案する。
論文 参考訳(メタデータ) (2021-06-07T18:31:47Z) - Latent Causal Invariant Model [128.7508609492542]
現在の教師付き学習は、データ適合プロセス中に急激な相関を学習することができる。
因果予測を求める潜在因果不変モデル(LaCIM)を提案する。
論文 参考訳(メタデータ) (2020-11-04T10:00:27Z) - A Causal Lens for Peeking into Black Box Predictive Models: Predictive
Model Interpretation via Causal Attribution [3.3758186776249928]
予測モデルがブラックボックスであるような設定でこの問題に対処することを目指している。
我々は、ブラックボックス予測モデルをモデル出力に対する各モデル入力の因果効果を推定する問題と比較する。
モデル入力に対するモデル出力に対する責任の因果関係が、予測モデルを解釈し、その予測を説明するためにどのように使用できるかを示す。
論文 参考訳(メタデータ) (2020-08-01T23:20:57Z) - Counterfactual Predictions under Runtime Confounding [74.90756694584839]
本研究は, 過去のデータからすべての関連要因を抽出した環境で, 事実予測タスクについて検討する。
本稿では,この環境下での対実予測モデル学習のための2次ロバスト手法を提案する。
論文 参考訳(メタデータ) (2020-06-30T15:49:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。