論文の概要: Kernel Debiased Plug-in Estimation
- arxiv url: http://arxiv.org/abs/2306.08598v1
- Date: Wed, 14 Jun 2023 15:58:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 18:19:27.308880
- Title: Kernel Debiased Plug-in Estimation
- Title(参考訳): Kernel Debiased Plug-in Estimation
- Authors: Brian Cho, Kyra Gan, Ivana Malenica, Yaroslav Mukhin
- Abstract要約: 提案手法は, (i) 効率, (ii) IFを必要とせず, (iii) 計算的に抽出可能なプラグイン推定器をデバイアス化する方法である。
我々はTMLEフレームワーク上に構築し、再生カーネルヒルベルト空間(RKHS)で構築された非パラメトリックモデル上での正規化可能性ステップでプラグイン推定を更新する。
そこで本手法は,プラグインアプローチの有用性を犠牲にすることなく,競合するデバイアス手法の効率性を提供する。
- 参考スコア(独自算出の注目度): 1.290382979353427
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the problem of estimating a scalar target parameter in the
presence of nuisance parameters. Replacing the unknown nuisance parameter with
a nonparametric estimator, e.g.,a machine learning (ML) model, is convenient
but has shown to be inefficient due to large biases. Modern methods, such as
the targeted minimum loss-based estimation (TMLE) and double machine learning
(DML), achieve optimal performance under flexible assumptions by harnessing ML
estimates while mitigating the plug-in bias. To avoid a sub-optimal
bias-variance trade-off, these methods perform a debiasing step of the plug-in
pre-estimate. Existing debiasing methods require the influence function of the
target parameter as input. However, deriving the IF requires specialized
expertise and thus obstructs the adaptation of these methods by practitioners.
We propose a novel way to debias plug-in estimators which (i) is efficient,
(ii) does not require the IF to be implemented, (iii) is computationally
tractable, and therefore can be readily adapted to new estimation problems and
automated without analytic derivations by the user. We build on the TMLE
framework and update a plug-in estimate with a regularized likelihood
maximization step over a nonparametric model constructed with a reproducing
kernel Hilbert space (RKHS), producing an efficient plug-in estimate for any
regular target parameter. Our method, thus, offers the efficiency of competing
debiasing techniques without sacrificing the utility of the plug-in approach.
- Abstract(参考訳): 本研究では,ノイズパラメータの存在下でスカラーターゲットパラメータを推定する問題を考察する。
未知のニュアンスパラメータを非パラメトリック推定器、例えば機械学習(ML)モデルで置き換えるのは便利であるが、大きなバイアスのために非効率であることが示されている。
ターゲット最小損失ベース推定(TMLE)やダブル機械学習(DML)といった現代の手法は、ML推定を利用して、プラグインバイアスを緩和し、柔軟な仮定の下で最適な性能を達成する。
準最適バイアス分散トレードオフを回避するため、これらの手法はプラグインの偏りを事前に見積もる。
既存のデバイアス手法では、ターゲットパラメータの影響関数を入力として要求する。
しかし、IFの派生には専門的な専門知識が必要であり、実践者によるこれらの手法の適応を妨げる。
プラグイン推定器をデバイアスする新しい方法を提案する。
(i)効率的である。
(ii)IFの実施を必要としない。
三) 計算的抽出が可能であり, 新たな推定問題に容易に適応でき, 利用者による解析的導出なしに自動化することができる。
我々はtmleフレームワーク上に構築し,再現カーネルヒルベルト空間 (rkhs) を用いて構築した非パラメトリックモデルに対して,正規化確率最大化ステップでプラグイン推定を更新し,任意の正規目標パラメータに対して効率的なプラグイン推定を生成する。
そこで本手法は,プラグインアプローチの有用性を犠牲にすることなく,競合するデバイアス手法の効率性を提供する。
関連論文リスト
- Multivariate root-n-consistent smoothing parameter free matching estimators and estimators of inverse density weighted expectations [51.000851088730684]
我々は、パラメトリックな$sqrt n $-rateで収束する、最も近い隣人の新しい修正とマッチング推定器を開発する。
我々は,非パラメトリック関数推定器は含まないこと,特に標本サイズ依存パラメータの平滑化には依存していないことを強調する。
論文 参考訳(メタデータ) (2024-07-11T13:28:34Z) - Scaling Exponents Across Parameterizations and Optimizers [94.54718325264218]
本稿では,先行研究における重要な仮定を考察し,パラメータ化の新たな視点を提案する。
私たちの経験的調査には、3つの組み合わせでトレーニングされた数万のモデルが含まれています。
最高の学習率のスケーリング基準は、以前の作業の仮定から除外されることがよくあります。
論文 参考訳(メタデータ) (2024-07-08T12:32:51Z) - Stochastic Marginal Likelihood Gradients using Neural Tangent Kernels [78.6096486885658]
線形化されたラプラス近似に下界を導入する。
これらの境界は漸進的な最適化が可能であり、推定精度と計算複雑性とのトレードオフを可能にする。
論文 参考訳(メタデータ) (2023-06-06T19:02:57Z) - Efficient Sensitivity Analysis for Parametric Robust Markov Chains [23.870902923521335]
本稿では,ロバストマルコフ鎖の感度解析法を提案する。
我々は、不確実な遷移確率に関する偏微分の観点から感度を測定する。
得られた結果を、専用感度分析へのアクセスから利益を得る反復学習方式に組み込む。
論文 参考訳(メタデータ) (2023-05-01T08:23:55Z) - Optimization of Annealed Importance Sampling Hyperparameters [77.34726150561087]
Annealed Importance Smpling (AIS) は、深層生成モデルの難易度を推定するために使われる一般的なアルゴリズムである。
本稿では、フレキシブルな中間分布を持つパラメータAISプロセスを提案し、サンプリングに少ないステップを使用するようにブリッジング分布を最適化する。
我々は, 最適化AISの性能評価を行い, 深部生成モデルの限界推定を行い, 他の推定値と比較した。
論文 参考訳(メタデータ) (2022-09-27T07:58:25Z) - Regularized Nonlinear Regression for Simultaneously Selecting and
Estimating Key Model Parameters [1.6122433144430324]
システム同定では、限られた観測値を用いてモデルのパラメータを推定すると、識別性が低下する。
感度パラメータをキーモデルパラメータとして同時に選択および推定し、残りのパラメータを典型的な値の集合に固定する新しい方法を提案する。
論文 参考訳(メタデータ) (2021-04-23T06:17:57Z) - Support recovery and sup-norm convergence rates for sparse pivotal
estimation [79.13844065776928]
高次元スパース回帰では、ピボット推定器は最適な正規化パラメータがノイズレベルに依存しない推定器である。
非滑らかで滑らかな単一タスクとマルチタスク正方形ラッソ型推定器に対するミニマックス超ノルム収束率を示す。
論文 参考訳(メタデータ) (2020-01-15T16:11:04Z) - Orthogonal Statistical Learning [49.55515683387805]
人口リスクが未知のニュアンスパラメータに依存するような環境では,統計学習における非漸近的過剰リスク保証を提供する。
人口リスクがNeymanityと呼ばれる条件を満たす場合,メタアルゴリズムによって達成される過剰リスクに対するニュアンス推定誤差の影響は2次であることを示す。
論文 参考訳(メタデータ) (2019-01-25T02:21:24Z) - Double/Debiased Machine Learning for Treatment and Causal Parameters [5.405360145866329]
MLツールを介して補助予測問題を解くことにより、正規化バイアスを除去する方法を示す。
この手法は、一次および補助的予測モデルの推定に依存するため、「二重ML」と呼ばれることができる。
これにより、補助的および主予測問題の解決に、非常に広い範囲のML予測手法を使用することができる。
論文 参考訳(メタデータ) (2016-07-30T01:58:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。