論文の概要: How to select predictive models for causal inference?
- arxiv url: http://arxiv.org/abs/2302.00370v2
- Date: Tue, 16 May 2023 15:47:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-17 18:58:49.714379
- Title: How to select predictive models for causal inference?
- Title(参考訳): 因果推論のための予測モデルの選択法
- Authors: Matthieu Doutreligne and Ga\"el Varoquaux
- Abstract要約: 従来の機械学習モデル選択は因果推論の最良の結果モデルを選択しないことを示す。
Rtext-risk$, フレキシブルな推定器を用いて列車集合上のニュアンスモデルを計算する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As predictive models -- e.g., from machine learning -- give likely outcomes,
they may be used to reason on the effect of an intervention, a causal-inference
task. The increasing complexity of health data has opened the door to a
plethora of models, but also the Pandora box of model selection: which of these
models yield the most valid causal estimates? Here we highlight that classic
machine-learning model selection does not select the best outcome models for
causal inference. Indeed, causal model selection should control both outcome
errors for each individual, treated or not treated, whereas only one outcome is
observed. Theoretically, simple risks used in machine learning do not control
causal effects when treated and non-treated population differ too much. More
elaborate risks build proxies of the causal error using ``nuisance''
re-weighting to compute it on the observed data. But does computing these
nuisance adds noise to model selection? Drawing from an extensive empirical
study, we outline a good causal model-selection procedure: using the so-called
$R\text{-risk}$; using flexible estimators to compute the nuisance models on
the train set; and splitting out 10\% of the data to compute risks.
- Abstract(参考訳): 予測モデル(機械学習など)は、おそらく結果をもたらすため、因果関係のタスクである介入の効果を推論するために使用される可能性がある。
健康データの複雑さの増大は、多くのモデルへのドアを開いただけでなく、モデル選択のpandoraボックスも開いた。
ここでは,古典的機械学習モデル選択が因果推論の最良の結果モデルを選択しないことを示す。
実際、因果モデルの選択は、1つの結果のみが観察されるのに対して、各個人の結果エラーを制御するべきである。
理論的には、機械学習で使用される単純なリスクは、治療されたときに因果効果を制御せず、非治療された人口が多すぎる。
より精巧なリスクは、‘nuisance’の再重み付けを使って因果エラーのプロキシを構築し、観測データ上でそれを計算します。
しかし、これらの迷惑はモデル選択にノイズをもたらすのだろうか?
r\text{-risk}$ と呼ばれるモデル選択手順、列車上のニュアサンスモデルの計算にフレキシブルな推定器を使用し、リスクを計算するためにデータの 10 % を分割する。
関連論文リスト
- Estimating Causal Effects from Learned Causal Networks [56.14597641617531]
本稿では、離散可観測変数に対する因果影響クエリに応答する代替パラダイムを提案する。
観測データから直接因果ベイズネットワークとその共起潜伏変数を学習する。
本手法は, 推定手法よりも有効であることを示す。
論文 参考訳(メタデータ) (2024-08-26T08:39:09Z) - Stubborn Lexical Bias in Data and Models [50.79738900885665]
我々は、データに基づいてトレーニングされたモデルに、データのスプリアスパターンが現れるかどうかを調べるために、新しい統計手法を用いる。
トレーニングデータに*reweight*に最適化アプローチを適用し、数千のスプリアス相関を低減します。
驚くべきことに、この方法ではトレーニングデータの語彙バイアスを低減できますが、トレーニングされたモデルで対応するバイアスの強い証拠がまだ見つかっていません。
論文 参考訳(メタデータ) (2023-06-03T20:12:27Z) - Information FOMO: The unhealthy fear of missing out on information. A method for removing misleading data for healthier models [0.0]
ミスリーディングや不要なデータは、マシンラーニング(ML)モデルの健全性や正確性に大きく影響します。
本稿では,データセット内の重要な情報を特定するシーケンシャルな選択法を提案する。
これらの不安定性は、基礎となるマップの複雑さの結果であり、極端な事象や重い尾と結びついている。
論文 参考訳(メタデータ) (2022-08-27T19:43:53Z) - Measuring Causal Effects of Data Statistics on Language Model's
`Factual' Predictions [59.284907093349425]
大量のトレーニングデータが、最先端のNLPモデルの高性能化の大きな理由の1つである。
トレーニングデータがどのように予測に影響を及ぼすかを記述するための言語を,因果的フレームワークを通じて提供する。
我々のフレームワークは、高価なモデルの再訓練の必要性を回避し、観測データのみに基づいて因果効果を推定することができる。
論文 参考訳(メタデータ) (2022-07-28T17:36:24Z) - Active Bayesian Causal Inference [72.70593653185078]
因果発見と推論を統合するための完全ベイズ能動学習フレームワークであるアクティブベイズ因果推論(ABCI)を提案する。
ABCIは因果関係のモデルと関心のクエリを共同で推論する。
我々のアプローチは、完全な因果グラフの学習のみに焦点を当てた、いくつかのベースラインよりも、よりデータ効率が高いことを示す。
論文 参考訳(メタデータ) (2022-06-04T22:38:57Z) - Causal discovery for observational sciences using supervised machine
learning [1.6631602844999722]
因果推論は因果効果を推定することができるが、データが実験的に収集されない限り、統計分析は事前に特定された因果モデルに依存する必要がある。
いくつかの正しい方法は既に存在するが、通常はより小さなサンプルで苦労する。
ほとんどの手法は、非常にスパースな因果モデルに焦点をあてるが、これは必ずしも現実的なデータ生成機構の現実的な表現ではないかもしれない。
本稿では,これら3つの欠点に対処する新たな因果発見手法を提案する。
論文 参考訳(メタデータ) (2022-02-25T16:44:00Z) - Benign-Overfitting in Conditional Average Treatment Effect Prediction
with Linear Regression [14.493176427999028]
線形回帰モデルを用いて条件平均処理効果(CATE)の予測における良性過剰適合理論について検討した。
一方,IPW-learnerは確率スコアが分かっていればリスクをゼロに収束させるが,T-learnerはランダムな割り当て以外の一貫性を達成できないことを示す。
論文 参考訳(メタデータ) (2022-02-10T18:51:52Z) - Estimation of Bivariate Structural Causal Models by Variational Gaussian
Process Regression Under Likelihoods Parametrised by Normalising Flows [74.85071867225533]
因果機構は構造因果モデルによって記述できる。
最先端の人工知能の大きな欠点の1つは、説明責任の欠如である。
論文 参考訳(メタデータ) (2021-09-06T14:52:58Z) - A Causal Lens for Peeking into Black Box Predictive Models: Predictive
Model Interpretation via Causal Attribution [3.3758186776249928]
予測モデルがブラックボックスであるような設定でこの問題に対処することを目指している。
我々は、ブラックボックス予測モデルをモデル出力に対する各モデル入力の因果効果を推定する問題と比較する。
モデル入力に対するモデル出力に対する責任の因果関係が、予測モデルを解釈し、その予測を説明するためにどのように使用できるかを示す。
論文 参考訳(メタデータ) (2020-08-01T23:20:57Z) - A General Framework for Survival Analysis and Multi-State Modelling [70.31153478610229]
ニューラル常微分方程式を多状態生存モデル推定のためのフレキシブルで一般的な方法として用いる。
また,本モデルでは,サバイバルデータセット上での最先端性能を示すとともに,マルチステート環境での有効性を示す。
論文 参考訳(メタデータ) (2020-06-08T19:24:54Z) - Resolving Spurious Correlations in Causal Models of Environments via
Interventions [2.836066255205732]
本稿では,強化学習環境の因果モデル推定の問題について考察する。
提案手法は,因果モデルにおける誤り発見のための介入を行うエージェントにインセンティブを与える報酬関数を設計する。
グリッドワールド環境における実験結果から,本手法はベースラインよりも因果モデルが優れていることが示された。
論文 参考訳(メタデータ) (2020-02-12T20:20:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。