論文の概要: Riesz Representer Fitting under Bregman Divergence: A Unified Framework for Debiased Machine Learning
- arxiv url: http://arxiv.org/abs/2601.07752v2
- Date: Thu, 15 Jan 2026 17:55:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 13:33:41.327472
- Title: Riesz Representer Fitting under Bregman Divergence: A Unified Framework for Debiased Machine Learning
- Title(参考訳): Bregman Divergenceの下でのRiesz Representer Fitting - 分散機械学習のための統一フレームワーク
- Authors: Masahiro Kato,
- Abstract要約: Riesz表現子の推定は、因果的および構造的パラメータ推定のための機械学習の中心である。
本稿では,Bregmanの発散最小化を通した表現子モデルを適用することにより,Riesz表現子を推定する統一フレームワークを提案する。
- 参考スコア(独自算出の注目度): 6.44705221140412
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Estimating the Riesz representer is central to debiased machine learning for causal and structural parameter estimation. We propose generalized Riesz regression, a unified framework that estimates the Riesz representer by fitting a representer model via Bregman divergence minimization. This framework includes the squared loss and the Kullback--Leibler (KL) divergence as special cases: the former recovers Riesz regression, while the latter recovers tailored loss minimization. Under suitable model specifications, the dual problems correspond to covariate balancing, which we call automatic covariate balancing. Moreover, under the same specifications, outcome averages weighted by the estimated Riesz representer satisfy Neyman orthogonality even without estimating the regression function, a property we call automatic Neyman orthogonalization. This property not only reduces the estimation error of Neyman orthogonal scores but also clarifies a key distinction between debiased machine learning and targeted maximum likelihood estimation. Our framework can also be viewed as a generalization of density ratio fitting under Bregman divergences to Riesz representer estimation, and it applies beyond density ratio estimation. We provide convergence analyses for both reproducing kernel Hilbert space (RKHS) and neural network model classes. A Python package for generalized Riesz regression is available at https://github.com/MasaKat0/grr.
- Abstract(参考訳): Riesz表現子の推定は、因果的および構造的パラメータ推定のためのバイアス付き機械学習の中心である。
一般化されたリース回帰(英語版)は、ブレグマンの発散最小化を通した表現器モデルを適用することにより、リース表現器を推定する統一的なフレームワークである。
このフレームワークは、二乗損失とKL(Kullback--Leibler)分岐を特別な場合として含む:前者はリース回帰を、後者は調整された損失最小化を回復する。
適切なモデル仕様の下では、二重問題は共変量バランスに対応し、自動共変量バランス(automatic covariate balance)と呼ぶ。
さらに、同じ仕様の下では、推定されたリース表現子によって重み付けられた結果平均は回帰関数を見積もることなくネイマン直交を満たす。
この性質は、レイマン直交スコアの推定誤差を低減させるだけでなく、偏りのある機械学習と目標とする最大推定値との重要な区別を明確化する。
我々のフレームワークは、ブレグマンの発散による密度比の近似をリース代表者推定に一般化したものと見なすことができ、密度比の推定を超えて適用できる。
本稿では、再現されたカーネルヒルベルト空間(RKHS)とニューラルネットワークモデルクラスについて収束解析を行う。
一般化されたRiesz回帰のためのPythonパッケージはhttps://github.com/MasaKat0/grrで入手できる。
関連論文リスト
- genriesz: A Python Package for Automatic Debiased Machine Learning with Generalized Riesz Regression [6.44705221140412]
我々は、自動DMLと一般化されたRiesz回帰を実装したオープンソースのPythonパッケージであるgenrieszを紹介する。
genrieszは、一般化されたリース回帰推定器がバランス(モーメントマッチング)最適条件を満たすように、互換性のあるリンク関数を自動で構築する。
論文 参考訳(メタデータ) (2026-02-19T16:58:40Z) - Riesz Regression As Direct Density Ratio Estimation [6.44705221140412]
本研究では,Riesz回帰が重要な場合において直接密度比推定(DRE)と密接に関連していることを示す。
具体的には、リース回帰におけるアイデアと目的は、DRE推定に適合する最小二乗の重要性と一致する。
論文 参考訳(メタデータ) (2025-11-06T17:25:05Z) - A Unified Theory for Causal Inference: Direct Debiased Machine Learning via Bregman-Riesz Regression [6.44705221140412]
本稿では、リース回帰、共変量バランス、密度比推定(DRE)、平均処理効果(ATE)推定におけるマッチング推定器を統合する因果推論の統一理論を紹介する。
ATE推定では、バランスウェイトと結果の回帰関数が重要な役割を果たす。
論文 参考訳(メタデータ) (2025-10-30T17:56:47Z) - Direct Debiased Machine Learning via Bregman Divergence Minimization [6.44705221140412]
エンド・ツー・エンド・アルゴリズムを用いた機械学習フレームワークを開発した。
我々は,ニュアンスパラメータ,回帰関数,リース表現器を定式化する。
Neyman のターゲット推定には Riesz の表現子推定が含まれており,Bregman の発散率を用いて不一致を計測する。
論文 参考訳(メタデータ) (2025-10-27T17:10:43Z) - Bayesian Double Descent [0.0]
ディープニューラルネットワークはリスク関数に再帰性を持つことを示す。
モデルの複雑さが増加するにつれて、リスクはU字型の領域を示す。
パラメータの数が観測数と等しくなると、モデルはリスクを非バウンドにできるものの1つとなり、再帰する。
論文 参考訳(メタデータ) (2025-07-09T23:47:26Z) - Generalization Bounds of Surrogate Policies for Combinatorial Optimization Problems [53.03951222945921]
我々はスムーズな(摂動された)ポリシーを解析し、線形オラクルが使用する方向に対して制御されたランダムな摂動を付加する。
我々の主な貢献は、過剰リスクを摂動バイアス、統計的推定誤差、最適化誤差に分解する一般化境界である。
車両のスケジューリングやスムーズ化がトラクタブルトレーニングと制御された一般化の両方を可能にしていることを示す。
論文 参考訳(メタデータ) (2024-07-24T12:00:30Z) - Multivariate root-n-consistent smoothing parameter free matching estimators and estimators of inverse density weighted expectations [51.000851088730684]
我々は、パラメトリックな$sqrt n $-rateで収束する、最も近い隣人の新しい修正とマッチング推定器を開発する。
我々は,非パラメトリック関数推定器は含まないこと,特に標本サイズ依存パラメータの平滑化には依存していないことを強調する。
論文 参考訳(メタデータ) (2024-07-11T13:28:34Z) - Relaxed Quantile Regression: Prediction Intervals for Asymmetric Noise [51.87307904567702]
量子レグレッション(Quantile regression)は、出力の分布における量子の実験的推定を通じてそのような間隔を得るための主要なアプローチである。
本稿では、この任意の制約を除去する量子回帰に基づく区間構成の直接的な代替として、Relaxed Quantile Regression (RQR)を提案する。
これにより、柔軟性が向上し、望ましい品質が向上することが実証された。
論文 参考訳(メタデータ) (2024-06-05T13:36:38Z) - Policy Evaluation in Distributional LQR [70.63903506291383]
ランダムリターンの分布を閉形式で表現する。
この分布は有限個の確率変数で近似できることを示す。
近似回帰分布を用いて,リスク・アバースLQRに対するゼロ階ポリシー勾配アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-23T20:27:40Z) - Learning Dynamical Systems via Koopman Operator Regression in
Reproducing Kernel Hilbert Spaces [52.35063796758121]
動的システムの有限データ軌跡からクープマン作用素を学ぶためのフレームワークを定式化する。
リスクとクープマン作用素のスペクトル分解の推定を関連付ける。
以上の結果から,RRRは他の広く用いられている推定値よりも有益である可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-27T14:57:48Z) - Optimally tackling covariate shift in RKHS-based nonparametric
regression [43.457497490211985]
我々は、慎重に選択された正規化パラメータを持つカーネルリッジ回帰推定器がミニマックスレート最適であることを示す。
また,関数クラスに対する経験的リスクを最小限に抑えるナイーブ推定器は,厳密に準最適であることを示す。
そこで本研究では, 再重み付きKRR推定器を提案する。
論文 参考訳(メタデータ) (2022-05-06T02:33:24Z) - Random Forest Weighted Local Fréchet Regression with Random Objects [18.128663071848923]
本稿では,新しいランダム森林重み付き局所Fr'echet回帰パラダイムを提案する。
最初の方法は、これらの重みを局所平均として、条件付きFr'echet平均を解くことである。
第二の手法は局所線形Fr'echet回帰を行い、どちらも既存のFr'echet回帰法を大幅に改善した。
論文 参考訳(メタデータ) (2022-02-10T09:10:59Z) - Optimal variance-reduced stochastic approximation in Banach spaces [114.8734960258221]
可分バナッハ空間上で定義された収縮作用素の定点を推定する問題について検討する。
演算子欠陥と推定誤差の両方に対して漸近的でない境界を確立する。
論文 参考訳(メタデータ) (2022-01-21T02:46:57Z) - Online nonparametric regression with Sobolev kernels [99.12817345416846]
我々は、ソボレフ空間のクラス上の後悔の上限を$W_pbeta(mathcalX)$, $pgeq 2, beta>fracdp$ とする。
上界は minimax regret analysis で支えられ、$beta> fracd2$ または $p=infty$ の場合、これらの値は(本質的に)最適である。
論文 参考訳(メタデータ) (2021-02-06T15:05:14Z) - Sharp Statistical Guarantees for Adversarially Robust Gaussian
Classification [54.22421582955454]
逆向きに頑健な分類の過剰リスクに対する最適ミニマックス保証の最初の結果を提供する。
結果はAdvSNR(Adversarial Signal-to-Noise Ratio)の項で述べられており、これは標準的な線形分類と逆数設定との類似の考え方を一般化している。
論文 参考訳(メタデータ) (2020-06-29T21:06:52Z) - Preventing Posterior Collapse with Levenshtein Variational Autoencoder [61.30283661804425]
我々は,エビデンス・ロー・バウンド(ELBO)を最適化し,後部崩壊を防止できる新しい目的に置き換えることを提案する。
本稿では,Levenstein VAEが後方崩壊防止のための代替手法よりも,より情報的な潜伏表現を生成することを示す。
論文 参考訳(メタデータ) (2020-04-30T13:27:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。