論文の概要: Direct Debiased Machine Learning via Bregman Divergence Minimization
- arxiv url: http://arxiv.org/abs/2510.23534v1
- Date: Mon, 27 Oct 2025 17:10:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.635304
- Title: Direct Debiased Machine Learning via Bregman Divergence Minimization
- Title(参考訳): Bregman Divergence MinimizationによるDebiased Machine Learning
- Authors: Masahiro Kato,
- Abstract要約: エンド・ツー・エンド・アルゴリズムを用いた機械学習フレームワークを開発した。
我々は,ニュアンスパラメータ,回帰関数,リース表現器を定式化する。
Neyman のターゲット推定には Riesz の表現子推定が含まれており,Bregman の発散率を用いて不一致を計測する。
- 参考スコア(独自算出の注目度): 6.44705221140412
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We develop a direct debiased machine learning framework comprising Neyman targeted estimation and generalized Riesz regression. Our framework unifies Riesz regression for automatic debiased machine learning, covariate balancing, targeted maximum likelihood estimation (TMLE), and density-ratio estimation. In many problems involving causal effects or structural models, the parameters of interest depend on regression functions. Plugging regression functions estimated by machine learning methods into the identifying equations can yield poor performance because of first-stage bias. To reduce such bias, debiased machine learning employs Neyman orthogonal estimating equations. Debiased machine learning typically requires estimation of the Riesz representer and the regression function. For this problem, we develop a direct debiased machine learning framework with an end-to-end algorithm. We formulate estimation of the nuisance parameters, the regression function and the Riesz representer, as minimizing the discrepancy between Neyman orthogonal scores computed with known and unknown nuisance parameters, which we refer to as Neyman targeted estimation. Neyman targeted estimation includes Riesz representer estimation, and we measure discrepancies using the Bregman divergence. The Bregman divergence encompasses various loss functions as special cases, where the squared loss yields Riesz regression and the Kullback-Leibler divergence yields entropy balancing. We refer to this Riesz representer estimation as generalized Riesz regression. Neyman targeted estimation also yields TMLE as a special case for regression function estimation. Furthermore, for specific pairs of models and Riesz representer estimation methods, we can automatically obtain the covariate balancing property without explicitly solving the covariate balancing objective.
- Abstract(参考訳): 我々は,Neymanの目標推定と一般化されたRiesz回帰を組み合わせた,直接バイアス付き機械学習フレームワークを開発した。
我々のフレームワークは、自動脱バイアス機械学習、共変量バランス、ターゲット最大推定(TMLE)、密度比推定のためのリースレグレッションを統一する。
因果効果や構造モデルを含む多くの問題において、関心のパラメータは回帰関数に依存する。
機械学習手法によって推定される回帰関数を同定方程式にプラグインすると、第一段階バイアスのため性能が低下する可能性がある。
このようなバイアスを減らすために、偏見付き機械学習はナイマン直交推定方程式を用いる。
Debiased Machine Learningは通常、Riesz表現子と回帰関数を推定する必要がある。
そこで本研究では,エンドツーエンドのアルゴリズムを用いた機械学習フレームワークを開発した。
我々は、未知のニュアンスパラメータで計算されたネイマン直交スコアの差を最小限に抑えるため、ニュアンスパラメータ、回帰関数、リース表現器を定式化する。
Neyman のターゲット推定には Riesz の表現子推定が含まれており,Bregman の発散率を用いて不一致を計測する。
ブレグマンの発散は、特別の場合として様々な損失関数を含み、二乗損失はリース回帰、クルバック・リーバー発散はエントロピーバランスをもたらす。
このRiesz表現子推定を一般化されたRiesz回帰と呼ぶ。
Neyman のターゲット推定は回帰関数推定の特別な場合として TMLE も得られる。
さらに、特定のモデル対とリース表現器推定法に対して、共変量バランスの目的を明示的に解くことなく、共変量バランス特性を自動で得ることができる。
関連論文リスト
- Uncertainty Quantification for Regression using Proper Scoring Rules [76.24649098854219]
CRPS,対数,2乗誤差,2次スコアなど,適切なスコアリングルールに基づく回帰のための統一的UQフレームワークを提案する。
実測パラメトリックな仮定に基づく不確実性尺度に対する閉形式式を導出し、モデルのアンサンブルを用いてそれらを推定する方法を示す。
合成および実世界の回帰データセットに対する広範な評価は、信頼性の高いUQ尺度を選択するためのガイダンスを提供する。
論文 参考訳(メタデータ) (2025-09-30T17:52:12Z) - Model-free Online Learning for the Kalman Filter: Forgetting Factor and Logarithmic Regret [2.313314525234138]
未知の非爆発線形系に対するオンライン予測の問題点を考察する。
既知のシステムモデルでは、最適な予測子はカルマンフィルタである。
我々は指数的忘れ込みを通じて回帰モデルに帰納バイアスを注入することでこの問題に取り組む。
論文 参考訳(メタデータ) (2025-05-13T21:49:56Z) - RieszBoost: Gradient Boosting for Riesz Regression [49.737777802061984]
本稿では,Riesz表現子を直接推定するために,その明示的な解析形式を必要とせず,新たな勾配向上アルゴリズムを提案する。
提案アルゴリズムは,様々な関数を対象とした間接推定手法と同等以上の性能を示す。
論文 参考訳(メタデータ) (2025-01-08T23:04:32Z) - Automatic debiasing of neural networks via moment-constrained learning [0.0]
偏差推定器の回帰関数をネーティブに学習し,対象関数のサンプル平均値を取得する。
本稿では,自動脱バイアスの欠点に対処する新しいRR学習手法として,モーメント制約学習を提案する。
論文 参考訳(メタデータ) (2024-09-29T20:56:54Z) - Beyond the Norms: Detecting Prediction Errors in Regression Models [26.178065248948773]
本稿では,回帰アルゴリズムにおける信頼できない振る舞いを検出するという課題に取り組む。
回帰器の出力が特定の不一致(または誤り)を超えた場合、回帰における不確実性の概念を導入する。
複数の回帰タスクに対する誤り検出の実証的改善を示す。
論文 参考訳(メタデータ) (2024-06-11T05:51:44Z) - Value-Distributional Model-Based Reinforcement Learning [59.758009422067]
政策の長期的業績に関する不確実性の定量化は、シーケンシャルな意思決定タスクを解決するために重要である。
モデルに基づくベイズ強化学習の観点から問題を考察する。
本稿では,値分布関数を学習するモデルに基づくアルゴリズムであるEpicemic Quantile-Regression(EQR)を提案する。
論文 参考訳(メタデータ) (2023-08-12T14:59:19Z) - Transfer Learning with Random Coefficient Ridge Regression [2.0813318162800707]
ランダム係数のリッジ回帰は、高次元設定における固定係数回帰の重要な代替となる。
本稿では,移動学習の設定におけるランダム係数リッジ回帰の推定と予測について考察する。
論文 参考訳(メタデータ) (2023-06-28T04:36:37Z) - Regression Bugs Are In Your Model! Measuring, Reducing and Analyzing
Regressions In NLP Model Updates [68.09049111171862]
この研究は、NLPモデル更新における回帰エラーの定量化、低減、分析に重点を置いている。
回帰フリーモデル更新を制約付き最適化問題に定式化する。
モデルアンサンブルが回帰を減らす方法を実証的に分析します。
論文 参考訳(メタデータ) (2021-05-07T03:33:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。