論文の概要: A Semiparametric Instrumented Difference-in-Differences Approach to
Policy Learning
- arxiv url: http://arxiv.org/abs/2310.09545v1
- Date: Sat, 14 Oct 2023 09:38:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 19:53:07.171202
- Title: A Semiparametric Instrumented Difference-in-Differences Approach to
Policy Learning
- Title(参考訳): 半パラメトリックな差分差分法による政策学習
- Authors: Pan Zhao, Yifan Cui
- Abstract要約: 本稿では,最適な治療方針を学習するための汎用機器差分差分法(DiD)アプローチを提案する。
具体的には、並列傾向仮定が成立しない場合、二進楽器変数(IV)を用いて識別結果を確立する。
また、ウォルド推定器、新しい逆確率推定器、半効率的で乗算的な頑健な推定器のクラスを構築する。
- 参考スコア(独自算出の注目度): 2.1989182578668243
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, there has been a surge in methodological development for the
difference-in-differences (DiD) approach to evaluate causal effects. Standard
methods in the literature rely on the parallel trends assumption to identify
the average treatment effect on the treated. However, the parallel trends
assumption may be violated in the presence of unmeasured confounding, and the
average treatment effect on the treated may not be useful in learning a
treatment assignment policy for the entire population. In this article, we
propose a general instrumented DiD approach for learning the optimal treatment
policy. Specifically, we establish identification results using a binary
instrumental variable (IV) when the parallel trends assumption fails to hold.
Additionally, we construct a Wald estimator, novel inverse probability
weighting (IPW) estimators, and a class of semiparametric efficient and
multiply robust estimators, with theoretical guarantees on consistency and
asymptotic normality, even when relying on flexible machine learning algorithms
for nuisance parameters estimation. Furthermore, we extend the instrumented DiD
to the panel data setting. We evaluate our methods in extensive simulations and
a real data application.
- Abstract(参考訳): 近年,ディファレンス・イン・ディファレンス(did)アプローチによる因果効果評価の方法論開発が急増している。
文献の標準的な方法は、治療効果の平均を識別するために平行傾向の仮定に依存する。
しかし, 並列傾向の仮定は, 非測定的共起の存在下では違反する可能性があり, 治療に対する平均的治療効果は, 全人口に対する治療割当政策の学習には有用ではない。
本稿では,最適治療方針を学習するための汎用的なDD手法を提案する。
具体的には,並列傾向の仮定が持たない場合,二項インストゥルメンタル変数(iv)を用いて識別結果を確立する。
さらに,不規則パラメータ推定のためのフレキシブルな機械学習アルゴリズムに依存する場合でも,一貫性と漸近正規性に関する理論的保証を備えた,ウォルド推定器,新しい逆確率重み付け(ipw)推定器,半パラメトリック効率的かつ多重ロバスト推定器のクラスを構築した。
さらに、計装されたDiDをパネルデータ設定に拡張する。
提案手法を広範囲なシミュレーションと実データアプリケーションで評価する。
関連論文リスト
- Statistical Inference for Temporal Difference Learning with Linear Function Approximation [62.69448336714418]
時間差差(TD)学習は、おそらく政策評価に最も広く使用されるものであり、この目的の自然な枠組みとして機能する。
本稿では,Polyak-Ruppert平均化と線形関数近似によるTD学習の整合性について検討し,既存の結果よりも3つの重要な改善点を得た。
論文 参考訳(メタデータ) (2024-10-21T15:34:44Z) - Estimating Distributional Treatment Effects in Randomized Experiments: Machine Learning for Variance Reduction [6.909352249236339]
ランダム化実験における分散処理効果パラメータを推定するための新しい回帰調整法を提案する。
提案手法では,事前処理による協調処理を分散回帰フレームワークに組み込み,機械学習技術を用いて分散処理効果推定器の精度を向上させる。
論文 参考訳(メタデータ) (2024-07-22T20:28:29Z) - Longitudinal Targeted Minimum Loss-based Estimation with Temporal-Difference Heterogeneous Transformer [7.451436112917229]
縦断的問題設定における動的処理ポリシーの下で, 結果の反実的平均を推定する新しい手法を提案する。
本手法では,時間差学習を用いて学習した異種型埋め込みを用いたトランスフォーマーアーキテクチャを用いる。
また, 統計的理論に基づく95%信頼区間の設定を可能とし, 統計的推測を容易にする。
論文 参考訳(メタデータ) (2024-04-05T20:56:15Z) - Targeted Machine Learning for Average Causal Effect Estimation Using the
Front-Door Functional [3.0232957374216953]
結果に対する治療の平均因果効果(ACE)を評価することは、しばしば観察研究における要因の相違によって引き起こされる課題を克服することを伴う。
本稿では,目標最小損失推定理論に基づいて,正面基準の新たな推定手法を提案する。
本研究では,早期学業成績が今後の年収に与える影響を明らかにするために,これらの推定装置の適用性を示す。
論文 参考訳(メタデータ) (2023-12-15T22:04:53Z) - Statistically Efficient Variance Reduction with Double Policy Estimation
for Off-Policy Evaluation in Sequence-Modeled Reinforcement Learning [53.97273491846883]
本稿では、オフラインシーケンスモデリングとオフライン強化学習をダブルポリシー推定と組み合わせたRLアルゴリズムDPEを提案する。
D4RLベンチマークを用いて,OpenAI Gymの複数のタスクで本手法を検証した。
論文 参考訳(メタデータ) (2023-08-28T20:46:07Z) - B-Learner: Quasi-Oracle Bounds on Heterogeneous Causal Effects Under
Hidden Confounding [51.74479522965712]
本稿では,B-Learnerと呼ばれるメタラーナーを提案する。
我々は、その推定が有効で、鋭く、効率的であることを証明し、既存の方法よりも一般的な条件下で構成推定器に対して準オーラル特性を持つことを示した。
論文 参考訳(メタデータ) (2023-04-20T18:07:19Z) - Post Reinforcement Learning Inference [22.117487428829488]
強化学習アルゴリズムから収集したデータを用いた推定と推定について検討する。
本稿では,時間変化の分散を安定化させるために,適応重みを慎重に設計した重み付きZ推定手法を提案する。
主な応用は、動的処理効果推定と動的オフポリシー評価である。
論文 参考訳(メタデータ) (2023-02-17T12:53:15Z) - Generalization bounds and algorithms for estimating conditional average
treatment effect of dosage [13.867315751451494]
本研究では,治療薬対の条件付き平均因果効果を観測データと仮定の組み合わせで推定する作業について検討した。
これは疫学や経済学など、意思決定のために治療薬対を必要とする分野における長年にわたる課題である。
この問題に対するいくつかのベンチマークデータセットに対して、実証的に新しい最先端のパフォーマンス結果を示す。
論文 参考訳(メタデータ) (2022-05-29T15:26:59Z) - Variance-Aware Off-Policy Evaluation with Linear Function Approximation [85.75516599931632]
線形関数近似を用いた強化学習における非政治的評価問題について検討する。
本稿では,値関数の分散を推定し,フィルタQ-Iterationにおけるベルマン残差を再重み付けするアルゴリズムVA-OPEを提案する。
論文 参考訳(メタデータ) (2021-06-22T17:58:46Z) - Machine learning for causal inference: on the use of cross-fit
estimators [77.34726150561087]
より優れた統計特性を得るために、二重ローバストなクロスフィット推定器が提案されている。
平均因果効果(ACE)に対する複数の推定器の性能評価のためのシミュレーション研究を行った。
機械学習で使用する場合、二重確率のクロスフィット推定器は、バイアス、分散、信頼区間のカバレッジで他のすべての推定器よりも大幅に優れていた。
論文 参考訳(メタデータ) (2020-04-21T23:09:55Z) - Localized Debiased Machine Learning: Efficient Inference on Quantile
Treatment Effects and Beyond [69.83813153444115]
因果推論における(局所)量子化処理効果((L)QTE)の効率的な推定式を検討する。
Debiased Machine Learning (DML)は、高次元のニュアンスを推定するデータ分割手法である。
本稿では、この負担のかかるステップを避けるために、局所的脱バイアス機械学習(LDML)を提案する。
論文 参考訳(メタデータ) (2019-12-30T14:42:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。