論文の概要: Nearest Neighbour Based Estimates of Gradients: Sharp Nonasymptotic
Bounds and Applications
- arxiv url: http://arxiv.org/abs/2006.15043v1
- Date: Fri, 26 Jun 2020 15:19:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 21:03:09.574799
- Title: Nearest Neighbour Based Estimates of Gradients: Sharp Nonasymptotic
Bounds and Applications
- Title(参考訳): 最寄り近傍の勾配推定:シャープ非漸近境界とその応用
- Authors: Guillaume Ausset, Stephan Cl\'emen\c{c}on, Fran\c{c}ois Portier
- Abstract要約: 勾配推定は統計学と学習理論において重要である。
ここでは古典的な回帰設定を考えると、実値の正方形可積分 r.v.$Y$ が予測される。
代替推定法で得られた値に対して, 漸近的境界が改良されることを証明した。
- 参考スコア(独自算出の注目度): 0.6445605125467573
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Motivated by a wide variety of applications, ranging from stochastic
optimization to dimension reduction through variable selection, the problem of
estimating gradients accurately is of crucial importance in statistics and
learning theory. We consider here the classic regression setup, where a real
valued square integrable r.v. $Y$ is to be predicted upon observing a (possibly
high dimensional) random vector $X$ by means of a predictive function $f(X)$ as
accurately as possible in the mean-squared sense and study a
nearest-neighbour-based pointwise estimate of the gradient of the optimal
predictive function, the regression function $m(x)=\mathbb{E}[Y\mid X=x]$.
Under classic smoothness conditions combined with the assumption that the tails
of $Y-m(X)$ are sub-Gaussian, we prove nonasymptotic bounds improving upon
those obtained for alternative estimation methods. Beyond the novel theoretical
results established, several illustrative numerical experiments have been
carried out. The latter provide strong empirical evidence that the estimation
method proposed works very well for various statistical problems involving
gradient estimation, namely dimensionality reduction, stochastic gradient
descent optimization and quantifying disentanglement.
- Abstract(参考訳): 確率最適化から変数選択による次元縮小まで、様々な応用によって動機付けられ、勾配を正確に推定する問題は統計学や学習理論において重要である。
ここでは、実値の平方可積分 r.v.$Y$ が、平均二乗感覚において可能な限り正確に予測関数 $f(X)$ を用いて(おそらく高次元の)ランダムベクトル $X$ を観測し、最適予測関数の勾配の最も近い近傍の点推定、回帰関数 $m(x)=\mathbb{E}[Y\mid X=x]$ を研究する際に予測される古典回帰集合を考える。
古典的滑らか性条件と y-m(x)$ の尾が準ガウス的であるという仮定が組み合わされ、代替推定法で得られるものに対して非漸近境界が改善されることが証明される。
新たに確立された理論的な結果以外にも、いくつかの数値実験が行われている。
後者は, 勾配推定, 次元性低減, 確率的勾配勾配最適化, 数値化等, 様々な統計的問題に対して, 提案手法が有効であることを示す。
関連論文リスト
- Multivariate root-n-consistent smoothing parameter free matching estimators and estimators of inverse density weighted expectations [51.000851088730684]
我々は、パラメトリックな$sqrt n $-rateで収束する、最も近い隣人の新しい修正とマッチング推定器を開発する。
我々は,非パラメトリック関数推定器は含まないこと,特に標本サイズ依存パラメータの平滑化には依存していないことを強調する。
論文 参考訳(メタデータ) (2024-07-11T13:28:34Z) - On the Stochastic (Variance-Reduced) Proximal Gradient Method for Regularized Expected Reward Optimization [10.36447258513813]
我々は、強化学習(RL)における既存の問題の多くを網羅する非文献設定における正規化期待報酬最適化問題を考える。
特に、標準条件下では、$O(epsilon-4)$サンプルを$epsilon$-stationaryポイントに含めることが示されている。
分析の結果,サンプルの複雑さは,追加条件下では$O(epsilon-4)$から$O(epsilon-3)$に改善できることがわかった。
論文 参考訳(メタデータ) (2024-01-23T06:01:29Z) - Unbiased Kinetic Langevin Monte Carlo with Inexact Gradients [0.8749675983608172]
動力学的ランゲヴィンダイナミクスに基づく後進手段の非バイアス化手法を提案する。
提案した推定器は偏りがなく、有限分散となり、中心極限定理を満たす。
以上の結果から、大規模アプリケーションでは、非バイアスアルゴリズムは「ゴールドスタンダード」なハミルトニアン・モンテカルロよりも2~3桁効率が良いことが示された。
論文 参考訳(メタデータ) (2023-11-08T21:19:52Z) - One-step corrected projected stochastic gradient descent for statistical estimation [49.1574468325115]
これは、Fisherスコアリングアルゴリズムの1ステップで修正されたログ様関数の予測勾配勾配に基づいている。
理論およびシミュレーションにより、平均勾配勾配や適応勾配勾配の通常の勾配勾配の代替として興味深いものであることを示す。
論文 参考訳(メタデータ) (2023-06-09T13:43:07Z) - Heavy-tailed Streaming Statistical Estimation [58.70341336199497]
ストリーミング$p$のサンプルから重み付き統計推定の課題を考察する。
そこで我々は,傾きの雑音に対して,よりニュアンスな条件下での傾きの傾きの低下を設計し,より詳細な解析を行う。
論文 参考訳(メタデータ) (2021-08-25T21:30:27Z) - High-probability Bounds for Non-Convex Stochastic Optimization with
Heavy Tails [55.561406656549686]
我々は、勾配推定が末尾を持つ可能性のある一階アルゴリズムを用いたヒルベルト非最適化を考える。
本研究では, 勾配, 運動量, 正規化勾配勾配の収束を高確率臨界点に収束させることと, 円滑な損失に対する最もよく知られた繰り返しを示す。
論文 参考訳(メタデータ) (2021-06-28T00:17:01Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - SLEIPNIR: Deterministic and Provably Accurate Feature Expansion for
Gaussian Process Regression with Derivatives [86.01677297601624]
本稿では,2次フーリエ特徴に基づく導関数によるGP回帰のスケーリング手法を提案する。
我々は、近似されたカーネルと近似された後部の両方に適用される決定論的、非漸近的、指数関数的に高速な崩壊誤差境界を証明した。
論文 参考訳(メタデータ) (2020-03-05T14:33:20Z) - Generalized Gumbel-Softmax Gradient Estimator for Various Discrete
Random Variables [16.643346012854156]
ノードの勾配を評価することは、深層生成モデリングコミュニティにおいて重要な研究課題の1つである。
本稿では,連続緩和を伴うGumbel-Softmax推定器の一般バージョンを提案する。
論文 参考訳(メタデータ) (2020-03-04T01:13:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。