論文の概要: Robust X-Learner: Breaking the Curse of Imbalance and Heavy Tails via Robust Cross-Imputation
- arxiv url: http://arxiv.org/abs/2601.15360v1
- Date: Wed, 21 Jan 2026 11:50:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-23 21:37:20.374465
- Title: Robust X-Learner: Breaking the Curse of Imbalance and Heavy Tails via Robust Cross-Imputation
- Title(参考訳): ロバストX-ラーナー:ロバストクロスイミューテーションによる不均衡と重いタオルの曲線を破る
- Authors: Eichi Uehara,
- Abstract要約: AdTechやヘルスケアといった産業応用における不均質処理(HTE)の評価は、二重課題である。
X-Learnerフレームワークはクロスインプットによって効果的に不均衡に対処する。
RX-Learnerは、標準のX-Learnerと比較して、PEHE(heterogeneous Effect)の測定における平均値を98.6%削減する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Estimating Heterogeneous Treatment Effects (HTE) in industrial applications such as AdTech and healthcare presents a dual challenge: extreme class imbalance and heavy-tailed outcome distributions. While the X-Learner framework effectively addresses imbalance through cross-imputation, we demonstrate that it is fundamentally vulnerable to "Outlier Smearing" when reliant on Mean Squared Error (MSE) minimization. In this failure mode, the bias from a few extreme observations ("whales") in the minority group is propagated to the entire majority group during the imputation step, corrupting the estimated treatment effect structure. To resolve this, we propose the Robust X-Learner (RX-Learner). This framework integrates a redescending γ-divergence objective -- structurally equivalent to the Welsch loss under Gaussian assumptions -- into the gradient boosting machinery. We further stabilize the non-convex optimization using a Proxy Hessian strategy grounded in Majorization-Minimization (MM) principles. Empirical evaluation on a semi-synthetic Criteo Uplift dataset demonstrates that the RX-Learner reduces the Precision in Estimation of Heterogeneous Effect (PEHE) metric by 98.6% compared to the standard X-Learner, effectively decoupling the stable "Core" population from the volatile "Periphery".
- Abstract(参考訳): AdTechやヘルスケアといった産業応用における不均一処理効果(HTE)の推定には、極端なクラス不均衡と重み付き結果分布という2つの課題がある。
X-Learner フレームワークはクロスインプットによって効果的に不均衡に対処するが、平均二乗誤差 (MSE) の最小化に依存する場合、基本的に "Outlier Smearing" に対して脆弱であることを示す。
この障害モードでは、少数派グループのいくつかの極端な観察(「捕鯨」)からのバイアスが、計算ステップ中に多数派全体に伝播し、推定された処理効果構造が破壊される。
これを解決するために,ロバストX-ラーナー(RX-ラーナー)を提案する。
この枠組みは、ガウスの仮定の下でのヴェルシュの損失と構造的に等価なγ偏移の目的を勾配加速機械に統合する。
我々はさらに、Majorization-Minimization (MM) 原則に基づくプロキシ・ヘッセン戦略を用いて、非凸最適化を安定化する。
半合成Criteo Upliftデータセットの実証評価では、RX-Learnerは標準のX-Learnerと比較して、PEHE(heterogeneous Effect)測定精度を98.6%削減し、不安定な"Periphery"から安定な"Core"人口を効果的に分離することを示した。
関連論文リスト
- Scaling Up ROC-Optimizing Support Vector Machines [3.1941554288428198]
ROC-SVMは、ROC曲線(AUC)の下での面積を直接最大化し、クラス不均衡の存在下での従来の二項分類の魅力的な代替品となっている。
我々は,不完全なU統計を利用して計算複雑性を大幅に低減するROC-SVMのスケーラブルな変種を開発する。
低ランクカーネル近似により、このフレームワークを非線形分類に拡張し、カーネルヒルベルト空間を再現する効率的なトレーニングを可能にする。
論文 参考訳(メタデータ) (2025-11-07T04:38:25Z) - Overlap-weighted orthogonal meta-learner for treatment effect estimation over time [90.46786193198744]
ヘテロジニアス治療効果(HTE)を推定するための新しい重み付きメタラーナーを提案する。
我々のWO-Larnerは、ノイマン直交性(Neyman-orthogonality)の好ましい性質を持ち、ニュアンス関数の誤特定に対して堅牢である。
我々のWO-learnerは完全にモデルに依存しず、あらゆる機械学習モデルに適用可能であることを示す。
論文 参考訳(メタデータ) (2025-10-22T14:47:57Z) - Distributionally Robust Federated Learning with Outlier Resilience [8.69285602685459]
本研究では, 分散的頑健なフェデレーション学習について, 明確な外部レジリエンスを用いて検討した。
我々は、ロバスト性証明を許容するトラクタブルなラグランジアンペナルティ最適化として問題を再構築する。
この改革に基づいて,分散外乱フェデレーション学習アルゴリズムを提案し,その収束保証を確立する。
論文 参考訳(メタデータ) (2025-09-29T08:42:12Z) - Benefits of Online Tilted Empirical Risk Minimization: A Case Study of Outlier Detection and Robust Regression [7.238889207632064]
経験的リスク最小化(Empirical Risk Minimization、ERM)は、教師付き学習の基礎となるフレームワークである。
データが一度に1つのサンプルに到達するオンラインまたはストリーミング設定では、古典的なTERMは標準ERMに縮退する。
本稿では,従来の目的から対数を取り除き,新たな計算やメモリオーバーヘッドを伴わずに傾き効果を保存するオンラインTERMを提案する。
論文 参考訳(メタデータ) (2025-09-18T16:51:23Z) - Distributionally Robust Optimization with Adversarial Data Contamination [49.89480853499918]
凸リプシッツ損失関数を持つ一般化線形モデルに対するワッサーシュタイン-1 DRO 目標の最適化に焦点をあてる。
私たちの主な貢献は、データ汚染のトレーニングに対するロバストネスと分散シフトに対するロバストネスを統合した、新しいモデリングフレームワークです。
この研究は、データ汚染と分散シフトという2つの課題の下で学習するために、効率的な計算によって支援される最初の厳密な保証を確立する。
論文 参考訳(メタデータ) (2025-07-14T18:34:10Z) - Electroencephalogram Emotion Recognition via AUC Maximization [0.0]
不均衡データセットは神経科学、認知科学、医学診断などの分野で大きな課題を提起する。
本研究は,DEAPデータセットにおけるライキングラベルを例として,イシュークラスの不均衡に対処する。
論文 参考訳(メタデータ) (2024-08-16T19:08:27Z) - Learning to Estimate Without Bias [57.82628598276623]
ガウスの定理は、重み付き最小二乗推定器は線形モデルにおける線形最小分散アンバイアスド推定(MVUE)であると述べている。
本稿では、バイアス制約のあるディープラーニングを用いて、この結果を非線形設定に拡張する第一歩を踏み出す。
BCEの第二の動機は、同じ未知の複数の推定値が平均化されてパフォーマンスが向上するアプリケーションにおいてである。
論文 参考訳(メタデータ) (2021-10-24T10:23:51Z) - Learning with Multiclass AUC: Theory and Algorithms [141.63211412386283]
ROC曲線 (AUC) の下の領域は、不均衡学習やレコメンダシステムといった問題に対するよく知られたランキング基準である。
本稿では,マルチクラスAUCメトリクスを最適化することで,多クラススコアリング関数を学習する問題について検討する。
論文 参考訳(メタデータ) (2021-07-28T05:18:10Z) - Semi-supervised Contrastive Learning with Similarity Co-calibration [72.38187308270135]
SsCL(Semi-supervised Contrastive Learning)と呼ばれる新しいトレーニング戦略を提案する。
ssclは、自己教師付き学習におけるよく知られたコントラスト損失と、半教師付き学習におけるクロスエントロピー損失を組み合わせる。
SsCLはより差別的な表現を生じさせ,ショット学習に有益であることを示す。
論文 参考訳(メタデータ) (2021-05-16T09:13:56Z) - Unbiased Risk Estimators Can Mislead: A Case Study of Learning with
Complementary Labels [92.98756432746482]
我々は,補完ラベルを用いた学習という,弱教師付き問題を研究する。
勾配推定の品質はリスク最小化においてより重要であることを示す。
本稿では,ゼロバイアスと分散の低減を両立させる新しい補助的相補的損失(SCL)フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-05T04:19:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。