論文の概要: Long Story Short: Omitted Variable Bias in Causal Machine Learning
- arxiv url: http://arxiv.org/abs/2112.13398v4
- Date: Thu, 2 Nov 2023 05:18:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-03 18:48:51.261895
- Title: Long Story Short: Omitted Variable Bias in Causal Machine Learning
- Title(参考訳): long story short: 因果的機械学習における変数バイアスの省略
- Authors: Victor Chernozhukov, Carlos Cinelli, Whitney Newey, Amit Sharma,
Vasilis Syrgkanis
- Abstract要約: 我々は、因果パラメータのクラスに対する省略変数バイアスのサイズに関する一般的な、しかし単純でシャープな境界を導出する。
バイアスのバウンダリが、潜在変数が生成する追加の変動にどのように依存するかを示す。
偏りのある機械学習を用いて、境界の学習可能なコンポーネントに対して柔軟で効率的な統計的推測を行う。
- 参考スコア(独自算出の注目度): 28.541085928897868
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We derive general, yet simple, sharp bounds on the size of the omitted
variable bias for a broad class of causal parameters that can be identified as
linear functionals of the conditional expectation function of the outcome. Such
functionals encompass many of the traditional targets of investigation in
causal inference studies, such as, for example, (weighted) average of potential
outcomes, average treatment effects (including subgroup effects, such as the
effect on the treated), (weighted) average derivatives, and policy effects from
shifts in covariate distribution -- all for general, nonparametric causal
models. Our construction relies on the Riesz-Frechet representation of the
target functional. Specifically, we show how the bound on the bias depends only
on the additional variation that the latent variables create both in the
outcome and in the Riesz representer for the parameter of interest. Moreover,
in many important cases (e.g, average treatment effects and avearage
derivatives) the bound is shown to depend on easily interpretable quantities
that measure the explanatory power of the omitted variables. Therefore, simple
plausibility judgments on the maximum explanatory power of omitted variables
(in explaining treatment and outcome variation) are sufficient to place overall
bounds on the size of the bias. Furthermore, we use debiased machine learning
to provide flexible and efficient statistical inference on learnable components
of the bounds. Finally, empirical examples demonstrate the usefulness of the
approach.
- Abstract(参考訳): 我々は、結果の条件付き期待関数の線形汎関数として識別できる幅広い因果パラメータのクラスに対して、省略された変数バイアスの大きさの一般、しかし単純で鋭い境界を導出する。
このような機能には、潜在的な結果の平均(重み付け)、平均的な治療効果(治療効果などのサブグループ効果を含む)、(重み付け)平均微分、および共変量分布のシフトによる政策効果など、因果推論研究における伝統的な研究対象の多くが含まれている。
我々の構成は、対象関数のriesz-frechet表現に依存する。
具体的には、バイアスのバウンドが、結果と興味のあるパラメータのriesz表現子の両方で潜在変数が生成する追加の変動にのみ依存することを示す。
さらに、多くの重要な場合(例えば、平均的な処理効果やアベレージ誘導体)において、境界は省略変数の説明力を測定するための容易に解釈可能な量に依存することが示される。
したがって、省略変数の最大説明力に関する単純な可能性判断(処理と結果変動の説明)は、バイアスの大きさに全体的な境界を置くのに十分である。
さらに,debiased machine learningを用いて,境界の学習可能なコンポーネントに対する柔軟かつ効率的な統計的推論を行う。
最後に、実証的な例はアプローチの有用性を示している。
関連論文リスト
- An Effective Theory of Bias Amplification [18.648588509429167]
機械学習モデルは、データに存在するバイアスをキャプチャして増幅し、社会的グループ間で異なるテストパフォーマンスをもたらす。
本稿では、従来のニューラルネットワークを単純化した状態下でモデル化するリッジ回帰の文脈において、正確な解析理論を提案する。
我々の理論は、機械学習バイアスの統一的で厳密な説明を提供し、バイアス増幅やマイノリティグループバイアスのような現象に関する洞察を提供する。
論文 参考訳(メタデータ) (2024-10-07T08:43:22Z) - Revisiting Optimism and Model Complexity in the Wake of Overparameterized Machine Learning [6.278498348219108]
まず、(有効)自由度という古典的な統計的概念を再解釈し、拡張することで、第一原理からモデルの複雑さを再考する。
我々は,概念的議論,理論,実験の混合を通じて,提案した複雑性尺度の有用性を実証する。
論文 参考訳(メタデータ) (2024-10-02T06:09:57Z) - Scaling and renormalization in high-dimensional regression [72.59731158970894]
本稿では,様々な高次元リッジ回帰モデルの訓練および一般化性能の簡潔な導出について述べる。
本稿では,物理と深層学習の背景を持つ読者を対象に,これらのトピックに関する最近の研究成果の紹介とレビューを行う。
論文 参考訳(メタデータ) (2024-05-01T15:59:00Z) - A Theoretical Study of The Effects of Adversarial Attacks on Sparse
Regression [28.776950569604026]
我々は,推定回帰パラメーターベクトルの支持を証明可能な性能保証を実現するために,原始双対目撃者パラダイムを用いる。
理論的には, 敵が無関係な特徴を損なうことによって, サンプルの複雑さに影響を及ぼすという反直感的な結果を示す。
論文 参考訳(メタデータ) (2022-12-21T17:30:17Z) - Data-Driven Influence Functions for Optimization-Based Causal Inference [105.5385525290466]
統計的汎関数に対するガトー微分を有限差分法で近似する構成的アルゴリズムについて検討する。
本研究では,確率分布を事前知識がないが,データから推定する必要がある場合について検討する。
論文 参考訳(メタデータ) (2022-08-29T16:16:22Z) - Bias-inducing geometries: an exactly solvable data model with fairness
implications [13.690313475721094]
我々は、正確に解決可能なデータ不均衡の高次元モデルを導入する。
この合成フレームワークで訓練された学習モデルの典型的特性を解析的に解き放つ。
フェアネス評価によく用いられる観測対象の正確な予測値を得る。
論文 参考訳(メタデータ) (2022-05-31T16:27:57Z) - The Variational Method of Moments [65.91730154730905]
条件モーメント問題は、観測可能量の観点から構造因果パラメータを記述するための強力な定式化である。
OWGMMの変動最小値再構成により、条件モーメント問題に対する非常に一般的な推定器のクラスを定義する。
同じ種類の変分変換に基づく統計的推測のためのアルゴリズムを提供する。
論文 参考訳(メタデータ) (2020-12-17T07:21:06Z) - Understanding Double Descent Requires a Fine-Grained Bias-Variance
Decomposition [34.235007566913396]
ラベルに関連付けられた用語への分散の解釈可能で対称的な分解について述べる。
バイアスはネットワーク幅とともに単調に減少するが、分散項は非単調な振る舞いを示す。
我々はまた、著しく豊かな現象論も分析する。
論文 参考訳(メタデータ) (2020-11-04T21:04:02Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - Multiplicative noise and heavy tails in stochastic optimization [62.993432503309485]
経験的最適化は現代の機械学習の中心であるが、その成功における役割はまだ不明である。
分散による離散乗法雑音のパラメータによく現れることを示す。
最新のステップサイズやデータを含む重要な要素について、詳細な分析を行い、いずれも最先端のニューラルネットワークモデルで同様の結果を示す。
論文 参考訳(メタデータ) (2020-06-11T09:58:01Z) - An Investigation of Why Overparameterization Exacerbates Spurious
Correlations [98.3066727301239]
この動作を駆動するトレーニングデータの2つの重要な特性を特定します。
モデルの"記憶"に対する帰納的バイアスが,パラメータ化の超過を損なう可能性を示す。
論文 参考訳(メタデータ) (2020-05-09T01:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。