論文の概要: How to select predictive models for causal inference?
- arxiv url: http://arxiv.org/abs/2302.00370v1
- Date: Wed, 1 Feb 2023 10:58:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-02 13:06:13.260828
- Title: How to select predictive models for causal inference?
- Title(参考訳): 因果推論のための予測モデルの選択法
- Authors: Doutreligne Matthieu and Varoquaux Ga\"el
- Abstract要約: 予測モデルは、集団や個人レベルでの介入の効果を推定するために、因果推論を下支えすることができる。
単純なリスクは治療対象と非治療対象の重なりが弱いことが理論的に示される。
重なり合う再重み付けのコストで観測可能な因果推定におけるオラクル誤差の代用としてRリスクが現れることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Predictive models -- as with machine learning -- can underpin causal
inference, to estimate the effects of an intervention at the population or
individual level. This opens the door to a plethora of models, useful to match
the increasing complexity of health data, but also the Pandora box of model
selection: which of these models yield the most valid causal estimates? Classic
machine-learning cross-validation procedures are not directly applicable.
Indeed, an appropriate selection procedure for causal inference should equally
weight both outcome errors for each individual, treated or not treated, whereas
one outcome may be seldom observed for a sub-population. We study how more
elaborate risks benefit causal model selection. We show theoretically that
simple risks are brittle to weak overlap between treated and non-treated
individuals as well as to heterogeneous errors between populations. Rather a
more elaborate metric, the R-risk appears as a proxy of the oracle error on
causal estimates, observable at the cost of an overlap re-weighting. As the
R-risk is defined not only from model predictions but also by using the
conditional mean outcome and the treatment probability, using it for model
selection requires adapting cross validation. Extensive experiments show that
the resulting procedure gives the best causal model selection.
- Abstract(参考訳): 予測モデル -- マシンラーニングと同様に -- は因果推論の基盤となり、人口や個人レベルでの介入の効果を見積もることができる。
これは、健康データの複雑さの増加に対応するのに有用な、多数のモデルへの扉を開くだけでなく、モデル選択のPandoraボックスにも役立ちます。
古典的な機械学習のクロスバリデーション手順は直接適用できない。
実際、因果推論の適切な選択手順は、各個人の結果エラーを等しく重み付けるべきであり、一方、1つの結果がサブ人口に対して観察されることは滅多にない。
より精巧なリスクが因果モデル選択にどう役立つかを研究する。
単純リスクは, 治療対象と非治療対象との重複が弱く, 集団間の不均質な誤差も弱まることが理論的に示されている。
より精巧な計量ではなく、Rリスクは、重なり合う再重み付けのコストで観測可能な因果推定におけるオラクル誤差のプロキシとして現れる。
r-リスクはモデル予測だけでなく条件付き平均結果と治療確率を用いて定義されるため、モデル選択にはクロス検証を適用する必要がある。
大規模な実験により、結果の手順が最良の因果モデル選択を与えることが示された。
関連論文リスト
- Estimating Causal Effects from Learned Causal Networks [56.14597641617531]
本稿では、離散可観測変数に対する因果影響クエリに応答する代替パラダイムを提案する。
観測データから直接因果ベイズネットワークとその共起潜伏変数を学習する。
本手法は, 推定手法よりも有効であることを示す。
論文 参考訳(メタデータ) (2024-08-26T08:39:09Z) - Stubborn Lexical Bias in Data and Models [50.79738900885665]
我々は、データに基づいてトレーニングされたモデルに、データのスプリアスパターンが現れるかどうかを調べるために、新しい統計手法を用いる。
トレーニングデータに*reweight*に最適化アプローチを適用し、数千のスプリアス相関を低減します。
驚くべきことに、この方法ではトレーニングデータの語彙バイアスを低減できますが、トレーニングされたモデルで対応するバイアスの強い証拠がまだ見つかっていません。
論文 参考訳(メタデータ) (2023-06-03T20:12:27Z) - Information FOMO: The unhealthy fear of missing out on information. A method for removing misleading data for healthier models [0.0]
ミスリーディングや不要なデータは、マシンラーニング(ML)モデルの健全性や正確性に大きく影響します。
本稿では,データセット内の重要な情報を特定するシーケンシャルな選択法を提案する。
これらの不安定性は、基礎となるマップの複雑さの結果であり、極端な事象や重い尾と結びついている。
論文 参考訳(メタデータ) (2022-08-27T19:43:53Z) - Measuring Causal Effects of Data Statistics on Language Model's
`Factual' Predictions [59.284907093349425]
大量のトレーニングデータが、最先端のNLPモデルの高性能化の大きな理由の1つである。
トレーニングデータがどのように予測に影響を及ぼすかを記述するための言語を,因果的フレームワークを通じて提供する。
我々のフレームワークは、高価なモデルの再訓練の必要性を回避し、観測データのみに基づいて因果効果を推定することができる。
論文 参考訳(メタデータ) (2022-07-28T17:36:24Z) - Active Bayesian Causal Inference [72.70593653185078]
因果発見と推論を統合するための完全ベイズ能動学習フレームワークであるアクティブベイズ因果推論(ABCI)を提案する。
ABCIは因果関係のモデルと関心のクエリを共同で推論する。
我々のアプローチは、完全な因果グラフの学習のみに焦点を当てた、いくつかのベースラインよりも、よりデータ効率が高いことを示す。
論文 参考訳(メタデータ) (2022-06-04T22:38:57Z) - Causal discovery for observational sciences using supervised machine
learning [1.6631602844999722]
因果推論は因果効果を推定することができるが、データが実験的に収集されない限り、統計分析は事前に特定された因果モデルに依存する必要がある。
いくつかの正しい方法は既に存在するが、通常はより小さなサンプルで苦労する。
ほとんどの手法は、非常にスパースな因果モデルに焦点をあてるが、これは必ずしも現実的なデータ生成機構の現実的な表現ではないかもしれない。
本稿では,これら3つの欠点に対処する新たな因果発見手法を提案する。
論文 参考訳(メタデータ) (2022-02-25T16:44:00Z) - Benign-Overfitting in Conditional Average Treatment Effect Prediction
with Linear Regression [14.493176427999028]
線形回帰モデルを用いて条件平均処理効果(CATE)の予測における良性過剰適合理論について検討した。
一方,IPW-learnerは確率スコアが分かっていればリスクをゼロに収束させるが,T-learnerはランダムな割り当て以外の一貫性を達成できないことを示す。
論文 参考訳(メタデータ) (2022-02-10T18:51:52Z) - Estimation of Bivariate Structural Causal Models by Variational Gaussian
Process Regression Under Likelihoods Parametrised by Normalising Flows [74.85071867225533]
因果機構は構造因果モデルによって記述できる。
最先端の人工知能の大きな欠点の1つは、説明責任の欠如である。
論文 参考訳(メタデータ) (2021-09-06T14:52:58Z) - A Causal Lens for Peeking into Black Box Predictive Models: Predictive
Model Interpretation via Causal Attribution [3.3758186776249928]
予測モデルがブラックボックスであるような設定でこの問題に対処することを目指している。
我々は、ブラックボックス予測モデルをモデル出力に対する各モデル入力の因果効果を推定する問題と比較する。
モデル入力に対するモデル出力に対する責任の因果関係が、予測モデルを解釈し、その予測を説明するためにどのように使用できるかを示す。
論文 参考訳(メタデータ) (2020-08-01T23:20:57Z) - A General Framework for Survival Analysis and Multi-State Modelling [70.31153478610229]
ニューラル常微分方程式を多状態生存モデル推定のためのフレキシブルで一般的な方法として用いる。
また,本モデルでは,サバイバルデータセット上での最先端性能を示すとともに,マルチステート環境での有効性を示す。
論文 参考訳(メタデータ) (2020-06-08T19:24:54Z) - Resolving Spurious Correlations in Causal Models of Environments via
Interventions [2.836066255205732]
本稿では,強化学習環境の因果モデル推定の問題について考察する。
提案手法は,因果モデルにおける誤り発見のための介入を行うエージェントにインセンティブを与える報酬関数を設計する。
グリッドワールド環境における実験結果から,本手法はベースラインよりも因果モデルが優れていることが示された。
論文 参考訳(メタデータ) (2020-02-12T20:20:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。