論文の概要: Minimax Semiparametric Learning With Approximate Sparsity
- arxiv url: http://arxiv.org/abs/1912.12213v7
- Date: Thu, 31 Jul 2025 18:34:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 16:30:04.746051
- Title: Minimax Semiparametric Learning With Approximate Sparsity
- Title(参考訳): 近似空間を用いたミニマックス半パラメトリック学習
- Authors: Jelena Bradic, Victor Chernozhukov, Whitney K. Newey, Yinchu Zhu,
- Abstract要約: 本稿では,古典的半パラメトリック理論による近似モデル空間性の概念を定式化する。
回帰勾配と平均微分のミニマックス速度を導出し、これらの境界は低次元の半パラメトリック設定の値よりもかなり大きいことがわかった。
- 参考スコア(独自算出の注目度): 3.5136198842746524
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Estimating linear, mean-square continuous functionals is a pivotal challenge in statistics. In high-dimensional contexts, this estimation is often performed under the assumption of exact model sparsity, meaning that only a small number of parameters are precisely non-zero. This excludes models where linear formulations only approximate the underlying data distribution, such as nonparametric regression methods that use basis expansion such as splines, kernel methods or polynomial regressions. Many recent methods for root-$n$ estimation have been proposed, but the implications of exact model sparsity remain largely unexplored. In particular, minimax optimality for models that are not exactly sparse has not yet been developed. This paper formalizes the concept of approximate sparsity through classical semi-parametric theory. We derive minimax rates under this formulation for a regression slope and an average derivative, finding these bounds to be substantially larger than those in low-dimensional, semi-parametric settings. We identify several new phenomena. We discover new regimes where rate double robustness does not hold, yet root-$n$ estimation is still possible. In these settings, we propose an estimator that achieves minimax optimal rates. Our findings further reveal distinct optimality boundaries for ordered versus unordered nonparametric regression estimation.
- Abstract(参考訳): 線形平均二乗連続函数を推定することは統計学において重要な課題である。
高次元の文脈では、この推定はしばしば正確なモデル間隔の仮定の下で行われ、少数のパラメータだけが正確にゼロではないことを意味する。
これは、スプライン、カーネルメソッド、多項式回帰のような基底展開を使用する非パラメトリック回帰法のような、線形定式化が基礎となるデータ分布にのみ近似するモデルを排除する。
ルート=n$推定のための最近の多くの手法が提案されているが、正確なモデル空間性の意味はほとんど解明されていない。
特に、正確にはスパースでないモデルに対するミニマックス最適性はまだ開発されていない。
本稿では,古典的半パラメトリック理論によって近似空間の概念を定式化する。
回帰勾配と平均微分の定式化の下でミニマックス速度を導出し、これらの境界は低次元の半パラメトリック設定の値よりもかなり大きいことがわかった。
我々はいくつかの新しい現象を識別する。
二重ロバスト性は保たないが、ルート=n$推定は可能である。
そこで本研究では,極小値の最適値を推定する推定器を提案する。
さらに, 順序と非順序の非パラメトリック回帰推定における最適性境界について明らかにした。
関連論文リスト
- Local Polynomial Lp-norm Regression [0.0]
非ガウス雑音が存在する場合、局所最小二乗推定は最適な結果を与えることができない。
L_p$-norm推定器は,非正規カルテシスを示す場合の残留量を最小化するために用いられることが示唆された。
本研究では,一次元データにおける局所最小二乗の優位性を示すとともに,高次元,特に2次元における有望な結果を示す。
論文 参考訳(メタデータ) (2025-04-25T21:04:19Z) - Debiased Nonparametric Regression for Statistical Inference and Distributionally Robustness [10.470114319701576]
本研究では,スムーズな非パラメトリック回帰推定器のためのモデルフリーデバイアス法を提案する。
緩やかな条件下で, 点方向および均一なリスク収束と滑らかさを満足する偏バイアス推定器を得る。
論文 参考訳(メタデータ) (2024-12-28T15:01:19Z) - Multivariate root-n-consistent smoothing parameter free matching estimators and estimators of inverse density weighted expectations [51.000851088730684]
我々は、パラメトリックな$sqrt n $-rateで収束する、最も近い隣人の新しい修正とマッチング推定器を開発する。
我々は,非パラメトリック関数推定器は含まないこと,特に標本サイズ依存パラメータの平滑化には依存していないことを強調する。
論文 参考訳(メタデータ) (2024-07-11T13:28:34Z) - A Bound on the Maximal Marginal Degrees of Freedom [0.0]
共通カーネルリッジレグレッションは、メモリ割り当てと計算時間において高価である。
本稿では,カーネルリッジ回帰に対する低階近似とサロゲートについて述べる。
論文 参考訳(メタデータ) (2024-02-20T10:25:44Z) - Batches Stabilize the Minimum Norm Risk in High Dimensional Overparameterized Linear Regression [12.443289202402761]
最小ノルム過パラメータ線形回帰モデルのレンズによるバッチ分割の利点を示す。
最適なバッチサイズを特徴付け、ノイズレベルに逆比例することを示す。
また,Weiner係数と同等の係数によるバッチ最小ノルム推定器の縮小がさらに安定化し,全ての設定において2次リスクを低くすることを示した。
論文 参考訳(メタデータ) (2023-06-14T11:02:08Z) - Kernel-based off-policy estimation without overlap: Instance optimality
beyond semiparametric efficiency [53.90687548731265]
本研究では,観測データに基づいて線形関数を推定するための最適手順について検討する。
任意の凸および対称函数クラス $mathcalF$ に対して、平均二乗誤差で有界な非漸近局所ミニマックスを導出する。
論文 参考訳(メタデータ) (2023-01-16T02:57:37Z) - Interpolating Discriminant Functions in High-Dimensional Gaussian Latent
Mixtures [1.4213973379473654]
本稿では,仮定モデルに基づく高次元特徴のバイナリ分類について考察する。
一般化された最小二乗推定器を用いて、最適分離超平面の方向を推定する。
論文 参考訳(メタデータ) (2022-10-25T21:19:50Z) - Learning to Estimate Without Bias [57.82628598276623]
ガウスの定理は、重み付き最小二乗推定器は線形モデルにおける線形最小分散アンバイアスド推定(MVUE)であると述べている。
本稿では、バイアス制約のあるディープラーニングを用いて、この結果を非線形設定に拡張する第一歩を踏み出す。
BCEの第二の動機は、同じ未知の複数の推定値が平均化されてパフォーマンスが向上するアプリケーションにおいてである。
論文 参考訳(メタデータ) (2021-10-24T10:23:51Z) - Near-optimal inference in adaptive linear regression [60.08422051718195]
最小二乗法のような単純な方法でさえ、データが適応的に収集されるときの非正規な振る舞いを示すことができる。
我々は,これらの分布異常を少なくとも2乗推定で補正するオンラインデバイアス推定器のファミリーを提案する。
我々は,マルチアームバンディット,自己回帰時系列推定,探索による能動的学習などの応用を通して,我々の理論の有用性を実証する。
論文 参考訳(メタデータ) (2021-07-05T21:05:11Z) - Rao-Blackwellizing the Straight-Through Gumbel-Softmax Gradient
Estimator [93.05919133288161]
一般的なGumbel-Softmax推定器のストレートスルー変量の分散は、ラオ・ブラックウェル化により減少できることを示す。
これは平均二乗誤差を確実に減少させる。
これは分散の低減、収束の高速化、および2つの教師なし潜在変数モデルの性能向上につながることを実証的に実証した。
論文 参考訳(メタデータ) (2020-10-09T22:54:38Z) - Fundamental Limits of Ridge-Regularized Empirical Risk Minimization in
High Dimensions [41.7567932118769]
経験的リスク最小化アルゴリズムは、様々な推定や予測タスクで広く利用されている。
本稿では,コンベックスEMMの統計的精度に関する基礎的限界を推論のために初めて特徴づける。
論文 参考訳(メタデータ) (2020-06-16T04:27:38Z) - Robust subgaussian estimation with VC-dimension [0.0]
この研究は、MOM推定器の余剰リスクを束縛する新しい一般的な方法を提案する。
中心となる技術は、統計複雑性を測定するためにVC次元(ラデマッハの複雑さの代わりに)を用いることである。
論文 参考訳(メタデータ) (2020-04-24T13:21:09Z) - Support recovery and sup-norm convergence rates for sparse pivotal
estimation [79.13844065776928]
高次元スパース回帰では、ピボット推定器は最適な正規化パラメータがノイズレベルに依存しない推定器である。
非滑らかで滑らかな単一タスクとマルチタスク正方形ラッソ型推定器に対するミニマックス超ノルム収束率を示す。
論文 参考訳(メタデータ) (2020-01-15T16:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。