論文の概要: Riesz Representer Fitting under Bregman Divergence: A Unified Framework for Debiased Machine Learning
- arxiv url: http://arxiv.org/abs/2601.07752v1
- Date: Mon, 12 Jan 2026 17:36:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.696227
- Title: Riesz Representer Fitting under Bregman Divergence: A Unified Framework for Debiased Machine Learning
- Title(参考訳): Bregman Divergenceの下でのRiesz Representer Fitting - 分散機械学習のための統一フレームワーク
- Authors: Masahiro Kato,
- Abstract要約: Riesz表現子の推定は、機械学習における中心的な問題である。
Riesz表現子推定のための様々な手法が提案されている。
本研究では,これらの手法を一つのフレームワークにまとめる。
- 参考スコア(独自算出の注目度): 6.44705221140412
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Estimating the Riesz representer is a central problem in debiased machine learning for causal and structural parameter estimation. Various methods for Riesz representer estimation have been proposed, including Riesz regression and covariate balancing. This study unifies these methods within a single framework. Our framework fits a Riesz representer model to the true Riesz representer under a Bregman divergence, which includes the squared loss and the Kullback--Leibler (KL) divergence as special cases. We show that the squared loss corresponds to Riesz regression, and the KL divergence corresponds to tailored loss minimization, where the dual solutions correspond to stable balancing weights and entropy balancing weights, respectively, under specific model specifications. We refer to our method as generalized Riesz regression, and we refer to the associated duality as automatic covariate balancing. Our framework also generalizes density ratio fitting under a Bregman divergence to Riesz representer estimation, and it includes various applications beyond density ratio estimation. We also provide a convergence analysis for both cases where the model class is a reproducing kernel Hilbert space (RKHS) and where it is a neural network.
- Abstract(参考訳): Riesz表現子の推定は、因果的および構造的パラメータ推定のための偏りのある機械学習における中心的な問題である。
Riesz回帰や共変量バランスなど、Riesz表現子推定のための様々な手法が提案されている。
本研究では,これらの手法を一つのフレームワークにまとめる。
我々のフレームワークは、正方形損失とKL(Kulback--Leibler)の発散を含むブレグマン発散の下で、真のRiesz表現子に適合する。
正方形損失はリースレグレッションに対応し、KLの発散は調整された損失最小化に対応し、ここでは2つの解はそれぞれ特定のモデル仕様の下で安定なバランスウェイトとエントロピーバランスウェイトに対応する。
我々はこの手法を一般化されたリース回帰(英語版)と呼び、関連する双対性を自動共変量バランス(英語版)と呼ぶ。
また,Bregmanの発散に基づく密度比フィッティングをRiesz表現器推定に一般化し,密度比推定以外の様々な応用を含む。
また、モデルクラスが再生カーネルヒルベルト空間(RKHS)であり、ニューラルネットワークである場合にも収束解析を行う。
関連論文リスト
- Riesz Regression As Direct Density Ratio Estimation [6.44705221140412]
本研究では,Riesz回帰が重要な場合において直接密度比推定(DRE)と密接に関連していることを示す。
具体的には、リース回帰におけるアイデアと目的は、DRE推定に適合する最小二乗の重要性と一致する。
論文 参考訳(メタデータ) (2025-11-06T17:25:05Z) - A Unified Theory for Causal Inference: Direct Debiased Machine Learning via Bregman-Riesz Regression [6.44705221140412]
本稿では、リース回帰、共変量バランス、密度比推定(DRE)、平均処理効果(ATE)推定におけるマッチング推定器を統合する因果推論の統一理論を紹介する。
ATE推定では、バランスウェイトと結果の回帰関数が重要な役割を果たす。
論文 参考訳(メタデータ) (2025-10-30T17:56:47Z) - Direct Debiased Machine Learning via Bregman Divergence Minimization [6.44705221140412]
エンド・ツー・エンド・アルゴリズムを用いた機械学習フレームワークを開発した。
我々は,ニュアンスパラメータ,回帰関数,リース表現器を定式化する。
Neyman のターゲット推定には Riesz の表現子推定が含まれており,Bregman の発散率を用いて不一致を計測する。
論文 参考訳(メタデータ) (2025-10-27T17:10:43Z) - Bayesian Double Descent [0.0]
ディープニューラルネットワークはリスク関数に再帰性を持つことを示す。
モデルの複雑さが増加するにつれて、リスクはU字型の領域を示す。
パラメータの数が観測数と等しくなると、モデルはリスクを非バウンドにできるものの1つとなり、再帰する。
論文 参考訳(メタデータ) (2025-07-09T23:47:26Z) - Generalization Bounds of Surrogate Policies for Combinatorial Optimization Problems [53.03951222945921]
我々はスムーズな(摂動された)ポリシーを解析し、線形オラクルが使用する方向に対して制御されたランダムな摂動を付加する。
我々の主な貢献は、過剰リスクを摂動バイアス、統計的推定誤差、最適化誤差に分解する一般化境界である。
車両のスケジューリングやスムーズ化がトラクタブルトレーニングと制御された一般化の両方を可能にしていることを示す。
論文 参考訳(メタデータ) (2024-07-24T12:00:30Z) - Policy Evaluation in Distributional LQR [70.63903506291383]
ランダムリターンの分布を閉形式で表現する。
この分布は有限個の確率変数で近似できることを示す。
近似回帰分布を用いて,リスク・アバースLQRに対するゼロ階ポリシー勾配アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-23T20:27:40Z) - Random Forest Weighted Local Fréchet Regression with Random Objects [18.128663071848923]
本稿では,新しいランダム森林重み付き局所Fr'echet回帰パラダイムを提案する。
最初の方法は、これらの重みを局所平均として、条件付きFr'echet平均を解くことである。
第二の手法は局所線形Fr'echet回帰を行い、どちらも既存のFr'echet回帰法を大幅に改善した。
論文 参考訳(メタデータ) (2022-02-10T09:10:59Z) - Optimal variance-reduced stochastic approximation in Banach spaces [114.8734960258221]
可分バナッハ空間上で定義された収縮作用素の定点を推定する問題について検討する。
演算子欠陥と推定誤差の両方に対して漸近的でない境界を確立する。
論文 参考訳(メタデータ) (2022-01-21T02:46:57Z) - Online nonparametric regression with Sobolev kernels [99.12817345416846]
我々は、ソボレフ空間のクラス上の後悔の上限を$W_pbeta(mathcalX)$, $pgeq 2, beta>fracdp$ とする。
上界は minimax regret analysis で支えられ、$beta> fracd2$ または $p=infty$ の場合、これらの値は(本質的に)最適である。
論文 参考訳(メタデータ) (2021-02-06T15:05:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。