論文の概要: Minimax Semiparametric Learning With Approximate Sparsity
- arxiv url: http://arxiv.org/abs/1912.12213v6
- Date: Mon, 8 Aug 2022 13:21:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-09 23:26:16.787390
- Title: Minimax Semiparametric Learning With Approximate Sparsity
- Title(参考訳): 近似空間を用いたミニマックス半パラメトリック学習
- Authors: Jelena Bradic, Victor Chernozhukov, Whitney K. Newey, Yinchu Zhu
- Abstract要約: 本稿では,高次元約スパース回帰の線形平均二乗連続函数を根nで連続的に推定できる可能性と方法について述べる。
回帰勾配と平均微分の近似器の収束率に低い境界を与える。
また、最小の近似スパーシリティ条件の下でルートnが整合なデバイアスドマシン学習者や、速度二重ロバスト性も与える。
- 参考スコア(独自算出の注目度): 3.2116198597240846
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper is about the feasibility and means of root-n consistently
estimating linear, mean-square continuous functionals of a high dimensional,
approximately sparse regression. Such objects include a wide variety of
interesting parameters such as regression coefficients, average derivatives,
and the average treatment effect. We give lower bounds on the convergence rate
of estimators of a regression slope and an average derivative and find that
these bounds are substantially larger than in a low dimensional, semiparametric
setting. We also give debiased machine learners that are root-n consistent
under either a minimal approximate sparsity condition or rate double
robustness. These estimators improve on existing estimators in being root-n
consistent under more general conditions that previously known.
- Abstract(参考訳): 本稿では,高次元約スパース回帰の線形平均二乗連続函数を根nで連続的に推定できる可能性と方法について述べる。
そのような対象には、回帰係数、平均微分、平均処理効果など、様々な興味深いパラメータが含まれる。
回帰勾配および平均微分の推定値の収束率の上限を低くし、これらの境界が低次元の半パラメトリックな設定よりもかなり大きいことを見出した。
また,最小スパーシティ条件かレートダブルロバスト性のいずれかでルートn一貫性を持つデバイアスマシン学習者にも与える。
これらの推定器は、従来知られていたより一般的な条件下でルートn一貫性を持つ既存の推定器を改善する。
関連論文リスト
- Multivariate root-n-consistent smoothing parameter free matching estimators and estimators of inverse density weighted expectations [51.000851088730684]
我々は、パラメトリックな$sqrt n $-rateで収束する、最も近い隣人の新しい修正とマッチング推定器を開発する。
我々は,非パラメトリック関数推定器は含まないこと,特に標本サイズ依存パラメータの平滑化には依存していないことを強調する。
論文 参考訳(メタデータ) (2024-07-11T13:28:34Z) - A Bound on the Maximal Marginal Degrees of Freedom [0.0]
共通カーネルリッジレグレッションは、メモリ割り当てと計算時間において高価である。
本稿では,カーネルリッジ回帰に対する低階近似とサロゲートについて述べる。
論文 参考訳(メタデータ) (2024-02-20T10:25:44Z) - Batches Stabilize the Minimum Norm Risk in High Dimensional Overparameterized Linear Regression [12.443289202402761]
最小ノルム過パラメータ線形回帰モデルのレンズによるバッチ分割の利点を示す。
最適なバッチサイズを特徴付け、ノイズレベルに逆比例することを示す。
また,Weiner係数と同等の係数によるバッチ最小ノルム推定器の縮小がさらに安定化し,全ての設定において2次リスクを低くすることを示した。
論文 参考訳(メタデータ) (2023-06-14T11:02:08Z) - Kernel-based off-policy estimation without overlap: Instance optimality
beyond semiparametric efficiency [53.90687548731265]
本研究では,観測データに基づいて線形関数を推定するための最適手順について検討する。
任意の凸および対称函数クラス $mathcalF$ に対して、平均二乗誤差で有界な非漸近局所ミニマックスを導出する。
論文 参考訳(メタデータ) (2023-01-16T02:57:37Z) - Learning to Estimate Without Bias [57.82628598276623]
ガウスの定理は、重み付き最小二乗推定器は線形モデルにおける線形最小分散アンバイアスド推定(MVUE)であると述べている。
本稿では、バイアス制約のあるディープラーニングを用いて、この結果を非線形設定に拡張する第一歩を踏み出す。
BCEの第二の動機は、同じ未知の複数の推定値が平均化されてパフォーマンスが向上するアプリケーションにおいてである。
論文 参考訳(メタデータ) (2021-10-24T10:23:51Z) - Near-optimal inference in adaptive linear regression [60.08422051718195]
最小二乗法のような単純な方法でさえ、データが適応的に収集されるときの非正規な振る舞いを示すことができる。
我々は,これらの分布異常を少なくとも2乗推定で補正するオンラインデバイアス推定器のファミリーを提案する。
我々は,マルチアームバンディット,自己回帰時系列推定,探索による能動的学習などの応用を通して,我々の理論の有用性を実証する。
論文 参考訳(メタデータ) (2021-07-05T21:05:11Z) - Rao-Blackwellizing the Straight-Through Gumbel-Softmax Gradient
Estimator [93.05919133288161]
一般的なGumbel-Softmax推定器のストレートスルー変量の分散は、ラオ・ブラックウェル化により減少できることを示す。
これは平均二乗誤差を確実に減少させる。
これは分散の低減、収束の高速化、および2つの教師なし潜在変数モデルの性能向上につながることを実証的に実証した。
論文 参考訳(メタデータ) (2020-10-09T22:54:38Z) - Robust subgaussian estimation with VC-dimension [0.0]
この研究は、MOM推定器の余剰リスクを束縛する新しい一般的な方法を提案する。
中心となる技術は、統計複雑性を測定するためにVC次元(ラデマッハの複雑さの代わりに)を用いることである。
論文 参考訳(メタデータ) (2020-04-24T13:21:09Z) - Support recovery and sup-norm convergence rates for sparse pivotal
estimation [79.13844065776928]
高次元スパース回帰では、ピボット推定器は最適な正規化パラメータがノイズレベルに依存しない推定器である。
非滑らかで滑らかな単一タスクとマルチタスク正方形ラッソ型推定器に対するミニマックス超ノルム収束率を示す。
論文 参考訳(メタデータ) (2020-01-15T16:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。