論文の概要: Doubly robust inference via calibration
- arxiv url: http://arxiv.org/abs/2411.02771v2
- Date: Fri, 27 Jun 2025 18:36:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 19:22:01.894954
- Title: Doubly robust inference via calibration
- Title(参考訳): キャリブレーションによる二重頑健な推論
- Authors: Lars van der Laan, Alex Luedtke, Marco Carone,
- Abstract要約: 二重ロバストな手順におけるニュアンス推定器の校正は、線形汎函数に対して二重ロバストな正規性をもたらすことを示す。
我々の理論的解析は、DML推定器が、関数の回帰あるいはリース表現器が十分に適切に推定されている場合、キャリブレート正規のままであることを示している。
アイソトニック回帰によるクロスフィット推定をキャリブレーションするために,数行のコードを追加することで,既存のDMLパイプラインに統合することができる。
- 参考スコア(独自算出の注目度): 0.9694940903078658
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Doubly robust estimators are widely used for estimating average treatment effects and other linear summaries of regression functions. While consistency requires only one of two nuisance functions to be estimated consistently, asymptotic normality typically require sufficiently fast convergence of both. In this work, we correct this mismatch: we show that calibrating the nuisance estimators within a doubly robust procedure yields doubly robust asymptotic normality for linear functionals. We introduce a general framework, calibrated debiased machine learning (calibrated DML), and propose a specific estimator that augments standard DML with a simple isotonic regression adjustment. Our theoretical analysis shows that the calibrated DML estimator remains asymptotically normal if either the regression or the Riesz representer of the functional is estimated sufficiently well, allowing the other to converge arbitrarily slowly or even inconsistently. We further propose a simple bootstrap method for constructing confidence intervals, enabling doubly robust inference without additional nuisance estimation. In a range of semi-synthetic benchmark datasets, calibrated DML reduces bias and improves coverage relative to standard DML. Our method can be integrated into existing DML pipelines by adding just a few lines of code to calibrate cross-fitted estimates via isotonic regression.
- Abstract(参考訳): 二重頑健な推定器は、平均的処理効果や回帰関数の他の線形和を推定するために広く用いられている。
一貫性は2つのニュアンス関数のうちの1つだけを連続的に推定する必要があるが、漸近正規性は通常、両方を十分に高速に収束させる必要がある。
本研究では,2重に頑健な手順におけるニュアンス推定器の校正が線形汎関数に対して2重に頑健な漸近正規性をもたらすことを示す。
我々は、一般的なフレームワーク、キャリブレーションされたデバイアスド機械学習(キャリブレーションDML)を導入し、単純な等調回帰調整で標準DMLを増強する特定の推定器を提案する。
我々の理論解析は、関数の回帰あるいはリース表現器が十分に推定されていれば、校正されたDML推定器は漸近的に正常であり、一方が任意に、あるいは矛盾なく収束できることを示している。
さらに,信頼区間を構築するための単純なブートストラップ手法を提案する。
半合成ベンチマークデータセットの範囲では、キャリブレーションされたDMLはバイアスを減らし、標準のDMLと比較してカバレッジを改善する。
アイソトニック回帰によるクロスフィット推定をキャリブレーションするために,数行のコードを追加することで,既存のDMLパイプラインに統合することができる。
関連論文リスト
- Calibration Strategies for Robust Causal Estimation: Theoretical and Empirical Insights on Propensity Score Based Estimators [0.6562256987706128]
推定と校正のためのデータの分割は、確率スコアに基づく推定器の性能に重大な影響を及ぼす。
提案手法は,確率スコア推定のためのキャリブレーション手法の最近の進歩を延長し,挑戦的な設定における確率スコアの堅牢性を向上させる。
論文 参考訳(メタデータ) (2025-03-21T16:41:10Z) - Automatic Double Reinforcement Learning in Semiparametric Markov Decision Processes with Applications to Long-Term Causal Inference [33.14076284663493]
マルコフ決定プロセス(MDP)は、状態、行動、報酬のシーケンスとして結果をモデル化するための原則化されたフレームワークを提供する。
本稿では,Q関数の線形関数に対する統計的に効率的なモデルロバスト推論のための,Double Reinforcement Learning (DRL) の半パラメトリック拡張を提案する。
アイソトニック・ベルマン・キャリブレーションに基づく新しいデバイアスド・プラグイン推定器を開発し,適合Q-itとアイソトニック・レグレッション・ステップを統合した。
論文 参考訳(メタデータ) (2025-01-12T20:35:28Z) - Automatic debiasing of neural networks via moment-constrained learning [0.0]
偏差推定器の回帰関数をネーティブに学習し,対象関数のサンプル平均値を取得する。
本稿では,自動脱バイアスの欠点に対処する新しいRR学習手法として,モーメント制約学習を提案する。
論文 参考訳(メタデータ) (2024-09-29T20:56:54Z) - Improving the Finite Sample Performance of Double/Debiased Machine Learning with Propensity Score Calibration [0.0]
ダブル/デバイアスド機械学習(DML)は、ニュアンス関数の予測に依存するダブルロススコア関数を使用する。
ダブルロバストスコア関数に依存する推定器は、確率スコア予測における誤差に非常に敏感である。
本稿では,DMLフレームワーク内での確率校正手法について検討する。
論文 参考訳(メタデータ) (2024-09-07T17:44:01Z) - Doubly Robust Proximal Causal Learning for Continuous Treatments [56.05592840537398]
本稿では,カーネルベースの2倍頑健な因果学習推定器を提案する。
オラクル形式は影響関数の一貫した近似であることを示す。
次に、平均二乗誤差の観点から総合収束解析を行う。
論文 参考訳(メタデータ) (2023-09-22T12:18:53Z) - Stabilizing Q-learning with Linear Architectures for Provably Efficient
Learning [53.17258888552998]
本研究では,線形関数近似を用いた基本的な$Q$-learningプロトコルの探索変種を提案する。
このアルゴリズムの性能は,新しい近似誤差というより寛容な概念の下で,非常に優雅に低下することを示す。
論文 参考訳(メタデータ) (2022-06-01T23:26:51Z) - Automatic Debiased Machine Learning for Dynamic Treatment Effects and
General Nested Functionals [23.31865419578237]
我々は、自動脱バイアス機械学習の考え方を動的治療体制に拡張し、より一般的にネストされた機能に拡張する。
離散的な処理を施した動的処理系に対する多重ロバストな式は、ネスト平均回帰のリース表現器のキャラクタリゼーションにより再定式化可能であることを示す。
論文 参考訳(メタデータ) (2022-03-25T19:54:17Z) - Learning to Estimate Without Bias [57.82628598276623]
ガウスの定理は、重み付き最小二乗推定器は線形モデルにおける線形最小分散アンバイアスド推定(MVUE)であると述べている。
本稿では、バイアス制約のあるディープラーニングを用いて、この結果を非線形設定に拡張する第一歩を踏み出す。
BCEの第二の動機は、同じ未知の複数の推定値が平均化されてパフォーマンスが向上するアプリケーションにおいてである。
論文 参考訳(メタデータ) (2021-10-24T10:23:51Z) - Mostly Harmless Machine Learning: Learning Optimal Instruments in Linear
IV Models [3.7599363231894176]
標準線形機器変数設定に機械学習を組み込むことを正当化する理論的結果を提供する。
楽器から処理変数を予測するために,機械学習とサンプル分割を併用した。
これにより、研究者は治療と器具の間の非線形な共変を抽出することができる。
論文 参考訳(メタデータ) (2020-11-12T01:55:11Z) - Machine learning for causal inference: on the use of cross-fit
estimators [77.34726150561087]
より優れた統計特性を得るために、二重ローバストなクロスフィット推定器が提案されている。
平均因果効果(ACE)に対する複数の推定器の性能評価のためのシミュレーション研究を行った。
機械学習で使用する場合、二重確率のクロスフィット推定器は、バイアス、分散、信頼区間のカバレッジで他のすべての推定器よりも大幅に優れていた。
論文 参考訳(メタデータ) (2020-04-21T23:09:55Z) - Distributional Robustness and Regularization in Reinforcement Learning [62.23012916708608]
経験値関数の新しい正規化器を導入し、ワッサーシュタイン分布のロバストな値関数を下限とすることを示す。
強化学習における$textitexternalな不確実性に対処するための実用的なツールとして正規化を使用することを提案する。
論文 参考訳(メタデータ) (2020-03-05T19:56:23Z) - Localized Debiased Machine Learning: Efficient Inference on Quantile
Treatment Effects and Beyond [69.83813153444115]
因果推論における(局所)量子化処理効果((L)QTE)の効率的な推定式を検討する。
Debiased Machine Learning (DML)は、高次元のニュアンスを推定するデータ分割手法である。
本稿では、この負担のかかるステップを避けるために、局所的脱バイアス機械学習(LDML)を提案する。
論文 参考訳(メタデータ) (2019-12-30T14:42:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。