論文の概要: On Undersmoothing and Sample Splitting for Estimating a Doubly Robust
Functional
- arxiv url: http://arxiv.org/abs/2212.14857v1
- Date: Fri, 30 Dec 2022 18:17:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 17:34:43.678660
- Title: On Undersmoothing and Sample Splitting for Estimating a Doubly Robust
Functional
- Title(参考訳): 二重ロバスト関数推定のためのアンダースムーシングとサンプル分割について
- Authors: Sean McGrath, Rajarshi Mukherjee
- Abstract要約: 二つの頑健な非パラメトリック関数に対する最小値速度最適推定器を構築することの問題点を考察する。
ミニマックス速度最適推定器は通常、プラグインとワンステップ型推定器の高次偏差補正によって構築される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the problem of constructing minimax rate-optimal estimators for a
doubly robust nonparametric functional that has witnessed applications across
the causal inference and conditional independence testing literature. Minimax
rate-optimal estimators for such functionals are typically constructed through
higher-order bias corrections of plug-in and one-step type estimators and, in
turn, depend on estimators of nuisance functions. In this paper, we consider a
parallel question of interest regarding the optimality and/or sub-optimality of
plug-in and one-step bias-corrected estimators for the specific doubly robust
functional of interest. Specifically, we verify that by using undersmoothing
and sample splitting techniques when constructing nuisance function estimators,
one can achieve minimax rates of convergence in all H\"older smoothness classes
of the nuisance functions (i.e. the propensity score and outcome regression)
provided that the marginal density of the covariates is sufficiently regular.
Additionally, by demonstrating suitable lower bounds on these classes of
estimators, we demonstrate the necessity to undersmooth the nuisance function
estimators to obtain minimax optimal rates of convergence.
- Abstract(参考訳): 因果推論と条件付き独立性テストの文献にまたがる応用を目撃した2重ロバストな非パラメトリック汎関数に対する最小レート・オプティマイタ構築の問題を考える。
そのような関数に対する最小値速度-最適推定器は、一般的にプラグインとワンステップ型推定器の高次偏差補正によって構成される。
本稿では,プラグインと1ステップバイアス補正推定器の最適性および/またはサブ最適性に関する関心の並列問題について考察する。
具体的には、ニュアサンス関数推定器を構築する際に、アンダースモーシング法とサンプル分割法を用いることで、ニュアザンス関数のすべてのh\"older smoothnessクラス(すなわち、拡張度スコアと結果回帰)の収束率を最小化することができ、共変量の限界密度が十分正規であることを確かめる。
さらに,これらの推定器のクラスに対して適切な下界を示すことにより,最小収束率を得るために,ニュアサンス関数推定器を過小評価する必要性を実証する。
関連論文リスト
- The Fundamental Limits of Structure-Agnostic Functional Estimation [16.282314725278365]
既存の一階法が最適であることを示す。
ブラックボックスニュアンス関数推定を用いた関数推定問題の定式化を行う。
この結果は,機能的推定におけるいくつかの明確なトレードオフを浮き彫りにした。
論文 参考訳(メタデータ) (2023-05-06T18:40:04Z) - Kernel-based off-policy estimation without overlap: Instance optimality
beyond semiparametric efficiency [53.90687548731265]
本研究では,観測データに基づいて線形関数を推定するための最適手順について検討する。
任意の凸および対称函数クラス $mathcalF$ に対して、平均二乗誤差で有界な非漸近局所ミニマックスを導出する。
論文 参考訳(メタデータ) (2023-01-16T02:57:37Z) - Statistical Optimality of Divide and Conquer Kernel-based Functional
Linear Regression [1.7227952883644062]
本稿では,対象関数が基礎となるカーネル空間に存在しないシナリオにおいて,分割・コンカレント推定器の収束性能について検討する。
分解に基づくスケーラブルなアプローチとして、関数線形回帰の分割・収束推定器は、時間とメモリにおけるアルゴリズムの複雑さを大幅に減らすことができる。
論文 参考訳(メタデータ) (2022-11-20T12:29:06Z) - Data-Driven Influence Functions for Optimization-Based Causal Inference [105.5385525290466]
統計的汎関数に対するガトー微分を有限差分法で近似する構成的アルゴリズムについて検討する。
本研究では,確率分布を事前知識がないが,データから推定する必要がある場合について検討する。
論文 参考訳(メタデータ) (2022-08-29T16:16:22Z) - Near-Optimal High Probability Complexity Bounds for Non-Smooth
Stochastic Optimization with Heavy-Tailed Noise [63.304196997102494]
アルゴリズムが高い確率で小さな客観的残差を与えることを理論的に保証することが不可欠である。
既存の非滑らか凸最適化法は、負のパワーまたは対数的な信頼度に依存する境界の複雑さを持つ。
クリッピングを用いた2つの勾配法に対して, 新たなステップサイズルールを提案する。
論文 参考訳(メタデータ) (2021-06-10T17:54:21Z) - Minimax Kernel Machine Learning for a Class of Doubly Robust Functionals [16.768606469968113]
もともと導入された二重頑健なモーメント関数のクラスを考える(Robins et al., 2008)。
このモーメント関数は、ニュアンス関数の推定方程式の構築に使用できることを実証する。
ニュアンス関数の収束速度は、統計学習理論の現代的な手法を用いて解析される。
論文 参考訳(メタデータ) (2021-04-07T05:52:15Z) - Causal Inference Under Unmeasured Confounding With Negative Controls: A
Minimax Learning Approach [84.29777236590674]
すべての共同設立者が観察されず、代わりに負の制御が利用可能である場合の因果パラメータの推定について検討する。
最近の研究は、2つのいわゆるブリッジ関数による同定と効率的な推定を可能にする方法を示している。
論文 参考訳(メタデータ) (2021-03-25T17:59:19Z) - Finite Sample Analysis of Minimax Offline Reinforcement Learning:
Completeness, Fast Rates and First-Order Efficiency [83.02999769628593]
強化学習におけるオフ・ポリティィ・アセスメント(OPE)の理論的特徴について述べる。
ミニマックス法により、重みと品質関数の高速収束を実現することができることを示す。
非タブラル環境における1次効率を持つ最初の有限サンプル結果を示す。
論文 参考訳(メタデータ) (2021-02-05T03:20:39Z) - Support recovery and sup-norm convergence rates for sparse pivotal
estimation [79.13844065776928]
高次元スパース回帰では、ピボット推定器は最適な正規化パラメータがノイズレベルに依存しない推定器である。
非滑らかで滑らかな単一タスクとマルチタスク正方形ラッソ型推定器に対するミニマックス超ノルム収束率を示す。
論文 参考訳(メタデータ) (2020-01-15T16:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。