論文の概要: Riesz Representer Fitting under Bregman Divergence: A Unified Framework for Debiased Machine Learning
- arxiv url: http://arxiv.org/abs/2601.07752v2
- Date: Thu, 15 Jan 2026 17:55:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 13:33:41.327472
- Title: Riesz Representer Fitting under Bregman Divergence: A Unified Framework for Debiased Machine Learning
- Title(参考訳): Bregman Divergenceの下でのRiesz Representer Fitting - 分散機械学習のための統一フレームワーク
- Authors: Masahiro Kato,
- Abstract要約: Riesz表現子の推定は、因果的および構造的パラメータ推定のための機械学習の中心である。
本稿では,Bregmanの発散最小化を通した表現子モデルを適用することにより,Riesz表現子を推定する統一フレームワークを提案する。
- 参考スコア(独自算出の注目度): 6.44705221140412
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Estimating the Riesz representer is central to debiased machine learning for causal and structural parameter estimation. We propose generalized Riesz regression, a unified framework that estimates the Riesz representer by fitting a representer model via Bregman divergence minimization. This framework includes the squared loss and the Kullback--Leibler (KL) divergence as special cases: the former recovers Riesz regression, while the latter recovers tailored loss minimization. Under suitable model specifications, the dual problems correspond to covariate balancing, which we call automatic covariate balancing. Moreover, under the same specifications, outcome averages weighted by the estimated Riesz representer satisfy Neyman orthogonality even without estimating the regression function, a property we call automatic Neyman orthogonalization. This property not only reduces the estimation error of Neyman orthogonal scores but also clarifies a key distinction between debiased machine learning and targeted maximum likelihood estimation. Our framework can also be viewed as a generalization of density ratio fitting under Bregman divergences to Riesz representer estimation, and it applies beyond density ratio estimation. We provide convergence analyses for both reproducing kernel Hilbert space (RKHS) and neural network model classes. A Python package for generalized Riesz regression is available at https://github.com/MasaKat0/grr.
- Abstract(参考訳): Riesz表現子の推定は、因果的および構造的パラメータ推定のためのバイアス付き機械学習の中心である。
一般化されたリース回帰(英語版)は、ブレグマンの発散最小化を通した表現器モデルを適用することにより、リース表現器を推定する統一的なフレームワークである。
このフレームワークは、二乗損失とKL(Kullback--Leibler)分岐を特別な場合として含む:前者はリース回帰を、後者は調整された損失最小化を回復する。
適切なモデル仕様の下では、二重問題は共変量バランスに対応し、自動共変量バランス(automatic covariate balance)と呼ぶ。
さらに、同じ仕様の下では、推定されたリース表現子によって重み付けられた結果平均は回帰関数を見積もることなくネイマン直交を満たす。
この性質は、レイマン直交スコアの推定誤差を低減させるだけでなく、偏りのある機械学習と目標とする最大推定値との重要な区別を明確化する。
我々のフレームワークは、ブレグマンの発散による密度比の近似をリース代表者推定に一般化したものと見なすことができ、密度比の推定を超えて適用できる。
本稿では、再現されたカーネルヒルベルト空間(RKHS)とニューラルネットワークモデルクラスについて収束解析を行う。
一般化されたRiesz回帰のためのPythonパッケージはhttps://github.com/MasaKat0/grrで入手できる。
関連論文リスト
- Riesz Regression As Direct Density Ratio Estimation [6.44705221140412]
本研究では,Riesz回帰が重要な場合において直接密度比推定(DRE)と密接に関連していることを示す。
具体的には、リース回帰におけるアイデアと目的は、DRE推定に適合する最小二乗の重要性と一致する。
論文 参考訳(メタデータ) (2025-11-06T17:25:05Z) - A Unified Theory for Causal Inference: Direct Debiased Machine Learning via Bregman-Riesz Regression [6.44705221140412]
本稿では、リース回帰、共変量バランス、密度比推定(DRE)、平均処理効果(ATE)推定におけるマッチング推定器を統合する因果推論の統一理論を紹介する。
ATE推定では、バランスウェイトと結果の回帰関数が重要な役割を果たす。
論文 参考訳(メタデータ) (2025-10-30T17:56:47Z) - Direct Debiased Machine Learning via Bregman Divergence Minimization [6.44705221140412]
エンド・ツー・エンド・アルゴリズムを用いた機械学習フレームワークを開発した。
我々は,ニュアンスパラメータ,回帰関数,リース表現器を定式化する。
Neyman のターゲット推定には Riesz の表現子推定が含まれており,Bregman の発散率を用いて不一致を計測する。
論文 参考訳(メタデータ) (2025-10-27T17:10:43Z) - Bayesian Double Descent [0.0]
ディープニューラルネットワークはリスク関数に再帰性を持つことを示す。
モデルの複雑さが増加するにつれて、リスクはU字型の領域を示す。
パラメータの数が観測数と等しくなると、モデルはリスクを非バウンドにできるものの1つとなり、再帰する。
論文 参考訳(メタデータ) (2025-07-09T23:47:26Z) - Generalization Bounds of Surrogate Policies for Combinatorial Optimization Problems [53.03951222945921]
我々はスムーズな(摂動された)ポリシーを解析し、線形オラクルが使用する方向に対して制御されたランダムな摂動を付加する。
我々の主な貢献は、過剰リスクを摂動バイアス、統計的推定誤差、最適化誤差に分解する一般化境界である。
車両のスケジューリングやスムーズ化がトラクタブルトレーニングと制御された一般化の両方を可能にしていることを示す。
論文 参考訳(メタデータ) (2024-07-24T12:00:30Z) - Policy Evaluation in Distributional LQR [70.63903506291383]
ランダムリターンの分布を閉形式で表現する。
この分布は有限個の確率変数で近似できることを示す。
近似回帰分布を用いて,リスク・アバースLQRに対するゼロ階ポリシー勾配アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-23T20:27:40Z) - Random Forest Weighted Local Fréchet Regression with Random Objects [18.128663071848923]
本稿では,新しいランダム森林重み付き局所Fr'echet回帰パラダイムを提案する。
最初の方法は、これらの重みを局所平均として、条件付きFr'echet平均を解くことである。
第二の手法は局所線形Fr'echet回帰を行い、どちらも既存のFr'echet回帰法を大幅に改善した。
論文 参考訳(メタデータ) (2022-02-10T09:10:59Z) - Optimal variance-reduced stochastic approximation in Banach spaces [114.8734960258221]
可分バナッハ空間上で定義された収縮作用素の定点を推定する問題について検討する。
演算子欠陥と推定誤差の両方に対して漸近的でない境界を確立する。
論文 参考訳(メタデータ) (2022-01-21T02:46:57Z) - Online nonparametric regression with Sobolev kernels [99.12817345416846]
我々は、ソボレフ空間のクラス上の後悔の上限を$W_pbeta(mathcalX)$, $pgeq 2, beta>fracdp$ とする。
上界は minimax regret analysis で支えられ、$beta> fracd2$ または $p=infty$ の場合、これらの値は(本質的に)最適である。
論文 参考訳(メタデータ) (2021-02-06T15:05:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。