論文の概要: The Connection Between R-Learning and Inverse-Variance Weighting for
Estimation of Heterogeneous Treatment Effects
- arxiv url: http://arxiv.org/abs/2307.09700v1
- Date: Wed, 19 Jul 2023 01:05:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-20 15:46:39.040704
- Title: The Connection Between R-Learning and Inverse-Variance Weighting for
Estimation of Heterogeneous Treatment Effects
- Title(参考訳): 異種処理効果推定のためのr-learningと逆分散重み付けの関連
- Authors: Aaron Fisher
- Abstract要約: 私たちのモチベーションは、広く普及しているR-Learnerのパフォーマンスを光らせることです。
R-Learningは重み付き擬似アウトカム回帰(POR)として表現できる
- 参考スコア(独自算出の注目度): 1.0660480034605242
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Our motivation is to shed light the performance of the widely popular
"R-Learner." Like many other methods for estimating conditional average
treatment effects (CATEs), R-Learning can be expressed as a weighted
pseudo-outcome regression (POR). Previous comparisons of POR techniques have
paid careful attention to the choice of pseudo-outcome transformation. However,
we argue that the dominant driver of performance is actually the choice of
weights. Specifically, we argue that R-Learning implicitly performs an
inverse-variance weighted form of POR. These weights stabilize the regression
and allow for convenient simplifications of bias terms.
- Abstract(参考訳): 私たちのモチベーションは、広く普及しているR-Learnerのパフォーマンスを明るくすることにあります。
条件平均処理効果(CATE)を推定する他の多くの方法と同様に、R-Learningは重み付き擬似アウトカム回帰(POR)として表現できる。
従来のPOR手法との比較は、擬似アウトカム変換の選択に注意を払っている。
しかし、我々はパフォーマンスの主要な要因が重みの選択であると主張する。
具体的には、R-LearningはPORの逆分散重み付け形式を暗黙的に実行する。
これらの重みは回帰を安定化し、バイアス項の簡易化を可能にする。
関連論文リスト
- STATE: A Robust ATE Estimator of Heavy-Tailed Metrics for Variance Reduction in Online Controlled Experiments [22.32661807469984]
我々は、学生のt分布と機械学習ツールを統合して、ヘビーテールのメトリクスに適合する新しいフレームワークを開発する。
ログ類似度関数を最適化するために変分EM法を採用することにより、アウトリアの負の影響を大幅に排除するロバストな解を推測できる。
Meituan実験プラットフォーム上での合成データと長期実験結果のシミュレーションにより,本手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-07-23T09:35:59Z) - Geometry-Aware Instrumental Variable Regression [56.16884466478886]
本稿では,データ導出情報によるデータ多様体の幾何を考慮した移動型IV推定器を提案する。
本手法のプラグイン・アンド・プレイ実装は,標準設定で関連する推定器と同等に動作する。
論文 参考訳(メタデータ) (2024-05-19T17:49:33Z) - Differentiable Pareto-Smoothed Weighting for High-Dimensional Heterogeneous Treatment Effect Estimation [0.6906005491572401]
重み付き表現学習による数値的ロバストな推定器を開発する。
提案手法は,重み値を効果的に補正することにより,既存手法よりも優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2024-04-26T15:34:04Z) - TIC-TAC: A Framework for Improved Covariance Estimation in Deep Heteroscedastic Regression [109.69084997173196]
奥行き回帰は、予測分布の平均と共分散を負の対数類似度を用いて共同最適化する。
近年の研究では, 共分散推定に伴う課題により, 準最適収束が生じる可能性が示唆されている。
1)予測共分散は予測平均のランダム性を真に捉えているか?
その結果, TICは共分散を正確に学習するだけでなく, 負の対数類似性の収束性の向上も促進することがわかった。
論文 参考訳(メタデータ) (2023-10-29T09:54:03Z) - Learning to Re-weight Examples with Optimal Transport for Imbalanced
Classification [74.62203971625173]
不均衡データは、ディープラーニングに基づく分類モデルに課題をもたらす。
不均衡なデータを扱うための最も広く使われているアプローチの1つは、再重み付けである。
本稿では,分布の観点からの最適輸送(OT)に基づく新しい再重み付け手法を提案する。
論文 参考訳(メタデータ) (2022-08-05T01:23:54Z) - Learning to Estimate Without Bias [57.82628598276623]
ガウスの定理は、重み付き最小二乗推定器は線形モデルにおける線形最小分散アンバイアスド推定(MVUE)であると述べている。
本稿では、バイアス制約のあるディープラーニングを用いて、この結果を非線形設定に拡張する第一歩を踏み出す。
BCEの第二の動機は、同じ未知の複数の推定値が平均化されてパフォーマンスが向上するアプリケーションにおいてである。
論文 参考訳(メタデータ) (2021-10-24T10:23:51Z) - Batch Inverse-Variance Weighting: Deep Heteroscedastic Regression [12.415463205960156]
Batch Inverse-Varianceは,実地に近い真理サンプルに対して頑健で,効果的な学習率の制御が可能な損失関数である。
実験の結果、BIVは2つのノイズデータセット上でのネットワークの性能を大幅に改善することがわかった。
論文 参考訳(メタデータ) (2021-07-09T15:39:31Z) - Machine Learning for Variance Reduction in Online Experiments [1.9181913148426697]
MLRATEと呼ばれる機械学習回帰調整処理効果推定器を提案する。
MLRATEは、結果の機械学習予測器を使用して推定値の分散を低減する。
A/Aテストでは、Facebookの実験で一般的に監視される48の結果メトリクスのセットに対して、推定器は単純な差分推定器よりも70%以上低いばらつきを持つ。
論文 参考訳(メタデータ) (2021-06-14T09:35:54Z) - Weighting-Based Treatment Effect Estimation via Distribution Learning [14.438302755258547]
本研究では,処理効果推定のための分布学習に基づく重み付け手法を開発した。
提案手法は,最先端の重み付けのみのベンチマーク手法よりも優れている。
2倍のロス率推定フレームワークの下では、その優位性を維持している。
論文 参考訳(メタデータ) (2020-12-26T20:15:44Z) - Accelerated Convergence for Counterfactual Learning to Rank [65.63997193915257]
IPS重み付き勾配を持つSGD手法の収束速度は、IPS重みによる大きなばらつきに悩まされることを示す。
本稿では,従来のIPS重み付け勾配降下法よりも優れた収束性を有する新しい学習アルゴリズムであるCounterSampleを提案する。
我々は、CounterSampleがより早く収束し、理論的な結果と経験的な結果とを補完することを証明する。
論文 参考訳(メタデータ) (2020-05-21T12:53:36Z) - Comment: Entropy Learning for Dynamic Treatment Regimes [58.442274475425144]
JSLZのアプローチは、逆確率(IPW)に基づく与えられた決定規則の値の拒絶とサンプリングの見積もりと、その解釈を重み付けされた(またはコストに敏感な)分類として利用する。
彼らのスムーズな分類サロゲートの使用は、分布の分析に慎重なアプローチを可能にする。
IPWの推定は、ほとんどのデータを捨てる重みにつながり、残余については非常に変動しているため、問題となる。
論文 参考訳(メタデータ) (2020-04-06T16:11:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。