論文の概要: The Connection Between R-Learning and Inverse-Variance Weighting for
Estimation of Heterogeneous Treatment Effects
- arxiv url: http://arxiv.org/abs/2307.09700v2
- Date: Fri, 2 Feb 2024 19:52:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 05:55:20.100122
- Title: The Connection Between R-Learning and Inverse-Variance Weighting for
Estimation of Heterogeneous Treatment Effects
- Title(参考訳): 異種処理効果推定のためのr-learningと逆分散重み付けの関連
- Authors: Aaron Fisher
- Abstract要約: パフォーマンスの主要な要因は、実際にはウェイトの選択である、と私たちは主張する。
シミュレーションにおけるIVWの優れた性能を示し、我々の知る限り、最も高速なIVWの収束率を導出する。
- 参考スコア(独自算出の注目度): 0.5076419064097734
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many methods for estimating conditional average treatment effects (CATEs) can
be expressed as weighted pseudo-outcome regressions (PORs). Previous
comparisons of POR techniques have paid careful attention to the choice of
pseudo-outcome transformation. However, we argue that the dominant driver of
performance is actually the choice of weights. For example, we point out that
R-Learning implicitly performs a POR with inverse-variance weights (IVWs). In
the CATE setting, IVWs mitigate the instability associated with
inverse-propensity weights, and lead to convenient simplifications of bias
terms. We demonstrate the superior performance of IVWs in simulations, and
derive convergence rates for IVWs that are, to our knowledge, the fastest yet
shown without assuming knowledge of the covariate distribution.
- Abstract(参考訳): 条件平均治療効果(CATE)を推定する多くの方法は、重み付き擬似アウトカム回帰(POR)として表すことができる。
従来のPOR手法との比較は、擬似アウトカム変換の選択に注意を払っている。
しかし、我々はパフォーマンスの主要な要因が重みの選択であると主張する。
例えば、R-Learningは、逆分散重み(IVW)を持つPORを暗黙的に実行する。
CATE設定では、IVWは逆正当性重みに関連する不安定性を緩和し、バイアス項の便利な単純化をもたらす。
シミュレーションにおけるIVWの優れた性能を示し、我々の知識により、共変量分布の知識を仮定することなく、最も高速に示されるIVWの収束率を導出する。
関連論文リスト
- STATE: A Robust ATE Estimator of Heavy-Tailed Metrics for Variance Reduction in Online Controlled Experiments [22.32661807469984]
我々は、学生のt分布と機械学習ツールを統合して、ヘビーテールのメトリクスに適合する新しいフレームワークを開発する。
ログ類似度関数を最適化するために変分EM法を採用することにより、アウトリアの負の影響を大幅に排除するロバストな解を推測できる。
Meituan実験プラットフォーム上での合成データと長期実験結果のシミュレーションにより,本手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-07-23T09:35:59Z) - Geometry-Aware Instrumental Variable Regression [56.16884466478886]
本稿では,データ導出情報によるデータ多様体の幾何を考慮した移動型IV推定器を提案する。
本手法のプラグイン・アンド・プレイ実装は,標準設定で関連する推定器と同等に動作する。
論文 参考訳(メタデータ) (2024-05-19T17:49:33Z) - Differentiable Pareto-Smoothed Weighting for High-Dimensional Heterogeneous Treatment Effect Estimation [0.6906005491572401]
重み付き表現学習による数値的ロバストな推定器を開発する。
提案手法は,重み値を効果的に補正することにより,既存手法よりも優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2024-04-26T15:34:04Z) - TIC-TAC: A Framework for Improved Covariance Estimation in Deep Heteroscedastic Regression [109.69084997173196]
奥行き回帰は、予測分布の平均と共分散を負の対数類似度を用いて共同最適化する。
近年の研究では, 共分散推定に伴う課題により, 準最適収束が生じる可能性が示唆されている。
1)予測共分散は予測平均のランダム性を真に捉えているか?
その結果, TICは共分散を正確に学習するだけでなく, 負の対数類似性の収束性の向上も促進することがわかった。
論文 参考訳(メタデータ) (2023-10-29T09:54:03Z) - Learning to Re-weight Examples with Optimal Transport for Imbalanced
Classification [74.62203971625173]
不均衡データは、ディープラーニングに基づく分類モデルに課題をもたらす。
不均衡なデータを扱うための最も広く使われているアプローチの1つは、再重み付けである。
本稿では,分布の観点からの最適輸送(OT)に基づく新しい再重み付け手法を提案する。
論文 参考訳(メタデータ) (2022-08-05T01:23:54Z) - Learning to Estimate Without Bias [57.82628598276623]
ガウスの定理は、重み付き最小二乗推定器は線形モデルにおける線形最小分散アンバイアスド推定(MVUE)であると述べている。
本稿では、バイアス制約のあるディープラーニングを用いて、この結果を非線形設定に拡張する第一歩を踏み出す。
BCEの第二の動機は、同じ未知の複数の推定値が平均化されてパフォーマンスが向上するアプリケーションにおいてである。
論文 参考訳(メタデータ) (2021-10-24T10:23:51Z) - Batch Inverse-Variance Weighting: Deep Heteroscedastic Regression [12.415463205960156]
Batch Inverse-Varianceは,実地に近い真理サンプルに対して頑健で,効果的な学習率の制御が可能な損失関数である。
実験の結果、BIVは2つのノイズデータセット上でのネットワークの性能を大幅に改善することがわかった。
論文 参考訳(メタデータ) (2021-07-09T15:39:31Z) - Machine Learning for Variance Reduction in Online Experiments [1.9181913148426697]
MLRATEと呼ばれる機械学習回帰調整処理効果推定器を提案する。
MLRATEは、結果の機械学習予測器を使用して推定値の分散を低減する。
A/Aテストでは、Facebookの実験で一般的に監視される48の結果メトリクスのセットに対して、推定器は単純な差分推定器よりも70%以上低いばらつきを持つ。
論文 参考訳(メタデータ) (2021-06-14T09:35:54Z) - Weighting-Based Treatment Effect Estimation via Distribution Learning [14.438302755258547]
本研究では,処理効果推定のための分布学習に基づく重み付け手法を開発した。
提案手法は,最先端の重み付けのみのベンチマーク手法よりも優れている。
2倍のロス率推定フレームワークの下では、その優位性を維持している。
論文 参考訳(メタデータ) (2020-12-26T20:15:44Z) - Accelerated Convergence for Counterfactual Learning to Rank [65.63997193915257]
IPS重み付き勾配を持つSGD手法の収束速度は、IPS重みによる大きなばらつきに悩まされることを示す。
本稿では,従来のIPS重み付け勾配降下法よりも優れた収束性を有する新しい学習アルゴリズムであるCounterSampleを提案する。
我々は、CounterSampleがより早く収束し、理論的な結果と経験的な結果とを補完することを証明する。
論文 参考訳(メタデータ) (2020-05-21T12:53:36Z) - Comment: Entropy Learning for Dynamic Treatment Regimes [58.442274475425144]
JSLZのアプローチは、逆確率(IPW)に基づく与えられた決定規則の値の拒絶とサンプリングの見積もりと、その解釈を重み付けされた(またはコストに敏感な)分類として利用する。
彼らのスムーズな分類サロゲートの使用は、分布の分析に慎重なアプローチを可能にする。
IPWの推定は、ほとんどのデータを捨てる重みにつながり、残余については非常に変動しているため、問題となる。
論文 参考訳(メタデータ) (2020-04-06T16:11:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。