論文の概要: Orthogonal Statistical Learning with Self-Concordant Loss
- arxiv url: http://arxiv.org/abs/2205.00350v1
- Date: Sat, 30 Apr 2022 21:50:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-03 13:52:53.733337
- Title: Orthogonal Statistical Learning with Self-Concordant Loss
- Title(参考訳): 自己一致損失を伴う直交統計的学習
- Authors: Lang Liu, Carlos Cinelli, Zaid Harchaoui
- Abstract要約: 我々は,自己一致性を満たす損失関数を持つ直交統計学習法の過剰なリスクに,非漸近的境界を定めている。
我々の境界は、強い凸性の仮定を持ち上げながら、次元因子によって既存の境界を改善する。
- 参考スコア(独自算出の注目度): 4.694549066382216
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Orthogonal statistical learning and double machine learning have emerged as
general frameworks for two-stage statistical prediction in the presence of a
nuisance component. We establish non-asymptotic bounds on the excess risk of
orthogonal statistical learning methods with a loss function satisfying a
self-concordance property. Our bounds improve upon existing bounds by a
dimension factor while lifting the assumption of strong convexity. We
illustrate the results with examples from multiple treatment effect estimation
and generalized partially linear modeling.
- Abstract(参考訳): 直交統計学習と二重機械学習は、ニュアンス成分の存在下での2段階統計予測の一般的なフレームワークとして登場した。
自己一致性を満たす損失関数を持つ直交統計学習法の過剰なリスクに対する漸近的境界を確立する。
我々の境界は、強い凸性の仮定を持ち上げながら、次元係数によって既存の境界を改善する。
本稿では,多重処理効果推定と一般化部分線形モデリングの例を示す。
関連論文リスト
- A U-turn on Double Descent: Rethinking Parameter Counting in Statistical
Learning [68.76846801719095]
二重降下がいつどこで起こるのかを正確に示し、その位置が本質的に閾値 p=n に結び付けられていないことを示す。
これは二重降下と統計的直観の間の緊張を解消する。
論文 参考訳(メタデータ) (2023-10-29T12:05:39Z) - Selective Nonparametric Regression via Testing [54.20569354303575]
本研究では,所定の点における条件分散の値に関する仮説を検証し,留置手順を開発する。
既存の手法とは異なり、提案手法は分散自体の値だけでなく、対応する分散予測器の不確実性についても考慮することができる。
論文 参考訳(メタデータ) (2023-09-28T13:04:11Z) - Coordinated Double Machine Learning [8.808993671472349]
本稿では、ディープニューラルネットワークのための注意深く調整された学習アルゴリズムにより、推定バイアスを低減できると主張している。
シミュレーションデータと実データの両方を用いた数値実験により,提案手法の実証性能が向上したことを示す。
論文 参考訳(メタデータ) (2022-06-02T05:56:21Z) - Mitigating multiple descents: A model-agnostic framework for risk
monotonization [84.6382406922369]
クロスバリデーションに基づくリスクモノトナイズのための一般的なフレームワークを開発する。
本稿では,データ駆動方式であるゼロステップとワンステップの2つの手法を提案する。
論文 参考訳(メタデータ) (2022-05-25T17:41:40Z) - Fluctuations, Bias, Variance & Ensemble of Learners: Exact Asymptotics
for Convex Losses in High-Dimension [25.711297863946193]
我々は、異なる、しかし相関のある特徴に基づいて訓練された一般化線形モデルの集合における揺らぎの研究の理論を開発する。
一般凸損失と高次元限界における正則化のための経験的リスク最小化器の結合分布の完全な記述を提供する。
論文 参考訳(メタデータ) (2022-01-31T17:44:58Z) - Causality and Generalizability: Identifiability and Learning Methods [0.0]
この論文は、因果効果の推定、因果構造学習、および分布的に堅牢な予測方法に関する研究領域に寄与する。
本稿では,データ依存平均二乗予測誤差正規化を用いた機器変数設定における線形・非線形因果関係推定器について述べる。
本稿では,介入誘起分布に関する分布ロバスト性に関する一般的な枠組みを提案する。
論文 参考訳(メタデータ) (2021-10-04T13:12:11Z) - The Interplay Between Implicit Bias and Benign Overfitting in Two-Layer
Linear Networks [51.1848572349154]
ノイズの多いデータに完全に適合するニューラルネットワークモデルは、見当たらないテストデータにうまく一般化できる。
我々は,2層線形ニューラルネットワークを2乗損失の勾配流で補間し,余剰リスクを導出する。
論文 参考訳(メタデータ) (2021-08-25T22:01:01Z) - Divergence Frontiers for Generative Models: Sample Complexity,
Quantization Level, and Frontier Integral [58.434753643798224]
多様性フロンティアは生成モデルの評価フレームワークとして提案されている。
分岐フロンティアのプラグイン推定器のサンプル複雑性の非漸近的境界を確立する。
また,スムーズな分布推定器の統計的性能を調べることにより,分散フロンティアの枠組みも強化する。
論文 参考訳(メタデータ) (2021-06-15T06:26:25Z) - A Nonconvex Framework for Structured Dynamic Covariance Recovery [24.471814126358556]
時間変化のある2次統計量を持つ高次元データに対するフレキシブルで解釈可能なモデルを提案する。
文献によって動機付けられ,因子化とスムーズな時間データの定量化を行う。
私たちのアプローチは,既存のベースラインよりも優れています。
論文 参考訳(メタデータ) (2020-11-11T07:09:44Z) - Machine learning for causal inference: on the use of cross-fit
estimators [77.34726150561087]
より優れた統計特性を得るために、二重ローバストなクロスフィット推定器が提案されている。
平均因果効果(ACE)に対する複数の推定器の性能評価のためのシミュレーション研究を行った。
機械学習で使用する場合、二重確率のクロスフィット推定器は、バイアス、分散、信頼区間のカバレッジで他のすべての推定器よりも大幅に優れていた。
論文 参考訳(メタデータ) (2020-04-21T23:09:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。