論文の概要: Doubly Robust Estimation with Machine Learning Predictions
- arxiv url: http://arxiv.org/abs/2108.01768v1
- Date: Tue, 3 Aug 2021 22:01:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-05 13:10:15.435021
- Title: Doubly Robust Estimation with Machine Learning Predictions
- Title(参考訳): 機械学習予測による2重ロバスト推定
- Authors: Mehdi Rostami, Olli Saarela, Michael Escobar
- Abstract要約: 本稿では,いくつかのシナリオにおいて有効なAIPW(nAIPW)の正規化を提案する。
シミュレーションの結果,AIPWは正規化を使わなければ広範囲に悩まされることが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The estimation of Average Treatment Effect (ATE) as a causal parameter is
carried out in two steps, wherein the first step, the treatment, and outcome
are modeled to incorporate the potential confounders, and in the second step,
the predictions are inserted into the ATE estimators such as the Augmented
Inverse Probability Weighting (AIPW) estimator. Due to the concerns regarding
the nonlinear or unknown relationships between confounders and the treatment
and outcome, there has been an interest in applying non-parametric methods such
as Machine Learning (ML) algorithms instead. \cite{farrell2018deep} proposed to
use two separate Neural Networks (NNs) where there's no regularization on the
network's parameters except the Stochastic Gradient Descent (SGD) in the NN's
optimization. Our simulations indicate that the AIPW estimator suffers
extensively if no regularization is utilized. We propose the normalization of
AIPW (referred to as nAIPW) which can be helpful in some scenarios. nAIPW,
provably, has the same properties as AIPW, that is double-robustness and
orthogonality \citep{chernozhukov2018double}. Further, if the first step
algorithms converge fast enough, under regulatory conditions
\citep{chernozhukov2018double}, nAIPW will be asymptotically normal.
- Abstract(参考訳): 因果パラメータとして平均処理効果(ate)を推定し、第1ステップ、処理、成果をモデル化して、潜在的な共同創設者を取り込み、第2ステップでは、拡張逆確率重み(aipw)推定子などのate推定器に予測を挿入する。
共同創設者間の非線形的あるいは未知の関係と治療と成果に関する懸念から、機械学習(ML)アルゴリズムのような非パラメトリックな手法を適用することへの関心が高まっている。
\cite{farrell2018deep}は、NNの最適化でSGD(Stochastic Gradient Descent)を除いて、ネットワークのパラメータを正規化しない2つの別個のニューラルネットワーク(NN)を使用することを提案した。
シミュレーションの結果, 正規化がなければAIPW推定器は広範囲に劣化することが示された。
本稿では,いくつかのシナリオにおいて有効なAIPW(nAIPW)の正規化を提案する。
nAIPW は AIPW と同じ性質を持ち、これは二重ロマンス性および直交性 \citep{chernozhukov2018double} である。
さらに、最初のステップアルゴリズムが十分に高速に収束し、規制条件下では、naipwは漸近的に正常である。
関連論文リスト
- Sub-linear Regret in Adaptive Model Predictive Control [56.705978425244496]
本稿では,STT-MPC (Self-Tuning tube-based Model Predictive Control) について述べる。
システム力学を最初に認識したアルゴリズムと比較して,アルゴリズムの後悔を解析する。
論文 参考訳(メタデータ) (2023-10-07T15:07:10Z) - Learning to Estimate Without Bias [57.82628598276623]
ガウスの定理は、重み付き最小二乗推定器は線形モデルにおける線形最小分散アンバイアスド推定(MVUE)であると述べている。
本稿では、バイアス制約のあるディープラーニングを用いて、この結果を非線形設定に拡張する第一歩を踏み出す。
BCEの第二の動機は、同じ未知の複数の推定値が平均化されてパフォーマンスが向上するアプリケーションにおいてである。
論文 参考訳(メタデータ) (2021-10-24T10:23:51Z) - The Bias-Variance Tradeoff of Doubly Robust Estimator with Targeted
$L_1$ regularized Neural Networks Predictions [0.0]
ATEの二重ロバスト(DR)推定は、第1ステップでは治療と結果がモデル化され、第2ステップでは予測がDR推定器に挿入される2ステップで行うことができる。
最初の段階でのモデルの仕様ミスにより、研究者はパラメトリックアルゴリズムの代わりに機械学習アルゴリズムを利用するようになった。
論文 参考訳(メタデータ) (2021-08-02T15:41:27Z) - Differentiable Annealed Importance Sampling and the Perils of Gradient
Noise [68.44523807580438]
Annealed importance sample (AIS) と関連するアルゴリズムは、限界推定のための非常に効果的なツールである。
差別性は、目的として限界確率を最適化する可能性を認めるため、望ましい性質である。
我々はメトロポリス・ハスティングスのステップを放棄して微分可能アルゴリズムを提案し、ミニバッチ計算をさらに解き放つ。
論文 参考訳(メタデータ) (2021-07-21T17:10:14Z) - Non-asymptotic estimates for TUSLA algorithm for non-convex learning
with applications to neural networks with ReLU activation function [3.5044892799305956]
Lovas et alで導入された未調整Langevinアルゴリズム(TUSLA)の非漸近解析を行う。
特に、Wassersteinstein-1-2におけるTUSLAアルゴリズムの非漸近誤差境界を確立する。
TUSLAアルゴリズムは最適解に急速に収束することを示す。
論文 参考訳(メタデータ) (2021-07-19T07:13:02Z) - High Probability Complexity Bounds for Non-Smooth Stochastic Optimization with Heavy-Tailed Noise [51.31435087414348]
アルゴリズムが高い確率で小さな客観的残差を与えることを理論的に保証することが不可欠である。
非滑らか凸最適化の既存の方法は、信頼度に依存した複雑性境界を持つ。
そこで我々は,勾配クリッピングを伴う2つの手法に対して,新たなステップサイズルールを提案する。
論文 参考訳(メタデータ) (2021-06-10T17:54:21Z) - Sparse Representations of Positive Functions via First and Second-Order
Pseudo-Mirror Descent [15.340540198612823]
推定器の範囲が非負である必要がある場合、予測されるリスク問題を考察する。
Emphpseudo-gradientsを用いた近似ミラーの1階および2階の変種を開発した。
実験は、実際に不均一なプロセス強度推定に好適な性能を示す。
論文 参考訳(メタデータ) (2020-11-13T21:54:28Z) - Amortized Conditional Normalized Maximum Likelihood: Reliable Out of
Distribution Uncertainty Estimation [99.92568326314667]
本研究では,不確実性推定のための拡張性のある汎用的アプローチとして,償却条件正規化最大値(ACNML)法を提案する。
提案アルゴリズムは条件付き正規化最大度(CNML)符号化方式に基づいており、最小記述長の原理に従って最小値の最適特性を持つ。
我々は、ACNMLが、分布外入力のキャリブレーションの観点から、不確実性推定のための多くの手法と好意的に比較することを示した。
論文 参考訳(メタデータ) (2020-11-05T08:04:34Z) - Self-Concordant Analysis of Generalized Linear Bandits with Forgetting [2.282313031205821]
ポアソンウィンドウや指数重みを用いた自己調和型GLB(ロジスティック回帰を含む)に焦点を当てる。
本稿では,GLB(Generalized Bandits)問題に対処するためのアプローチを提案する。
論文 参考訳(メタデータ) (2020-11-02T08:36:39Z) - Single-Timescale Stochastic Nonconvex-Concave Optimization for Smooth
Nonlinear TD Learning [145.54544979467872]
本稿では,各ステップごとに1つのデータポイントしか必要としない2つの単一スケールシングルループアルゴリズムを提案する。
本研究の結果は, 同時一次および二重側収束の形で表される。
論文 参考訳(メタデータ) (2020-08-23T20:36:49Z) - Bayesian Sparse learning with preconditioned stochastic gradient MCMC
and its applications [5.660384137948734]
提案アルゴリズムは, 温和な条件下で, 制御可能なバイアスで正しい分布に収束する。
提案アルゴリズムは, 温和な条件下で, 制御可能なバイアスで正しい分布に収束可能であることを示す。
論文 参考訳(メタデータ) (2020-06-29T20:57:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。