論文の概要: Smoothed SGD for quantiles: Bahadur representation and Gaussian approximation
- arxiv url: http://arxiv.org/abs/2505.13299v1
- Date: Mon, 19 May 2025 16:19:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.725399
- Title: Smoothed SGD for quantiles: Bahadur representation and Gaussian approximation
- Title(参考訳): 量子化に対する滑らかなSGD:バハドゥル表現とガウス近似
- Authors: Likai Chen, Georg Keilbar, Wei Biao Wu,
- Abstract要約: 勾配降下法(SGD)アルゴリズムのスムーズなバージョンによる量子化の推定について検討する。
我々はスムーズなSGD量子推定のための非漸近テール確率境界を導出する。
数値解析により, 理論的結果に対して良好な有限標本挙動を示す。
- 参考スコア(独自算出の注目度): 4.2330023661329355
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper considers the estimation of quantiles via a smoothed version of the stochastic gradient descent (SGD) algorithm. By smoothing the score function in the conventional SGD quantile algorithm, we achieve monotonicity in the quantile level in that the estimated quantile curves do not cross. We derive non-asymptotic tail probability bounds for the smoothed SGD quantile estimate both for the case with and without Polyak-Ruppert averaging. For the latter, we also provide a uniform Bahadur representation and a resulting Gaussian approximation result. Numerical studies show good finite sample behavior for our theoretical results.
- Abstract(参考訳): 本稿では,確率勾配勾配(SGD)アルゴリズムのスムーズなバージョンによる量子化の推定について考察する。
従来のSGD量子化アルゴリズムにおけるスコア関数の平滑化により、推定された量子化曲線が交差しないような量子化レベルの単調性を実現する。
我々は,Polyak-Ruppert平均値のいずれにおいても,スムーズなSGD量子推定値に対する非漸近テール確率境界を導出する。
後者については、均一なバハドゥール表現とガウス近似の結果も提供する。
数値解析により, 理論的結果に対して良好な有限標本挙動を示す。
関連論文リスト
- Stochastic Quantum Sampling for Non-Logconcave Distributions and
Estimating Partition Functions [13.16814860487575]
非対数確率分布からサンプリングする量子アルゴリズムを提案する。
f$ は有限和 $f(x):= frac1Nsum_k=1N f_k(x)$ と書くことができる。
論文 参考訳(メタデータ) (2023-10-17T17:55:32Z) - Robust Stochastic Optimization via Gradient Quantile Clipping [6.2844649973308835]
グラディエントDescent(SGD)のための量子クリッピング戦略を導入する。
通常のクリッピングチェーンとして、グラデーション・ニュー・アウトリージを使用します。
本稿では,Huberiles を用いたアルゴリズムの実装を提案する。
論文 参考訳(メタデータ) (2023-09-29T15:24:48Z) - Sampling from Gaussian Process Posteriors using Stochastic Gradient
Descent [43.097493761380186]
勾配アルゴリズムは線形系を解くのに有効な方法である。
最適値に収束しない場合であっても,勾配降下は正確な予測を導出することを示す。
実験的に、勾配降下は十分に大規模または不条件の回帰タスクにおいて最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-06-20T15:07:37Z) - Computing the Variance of Shuffling Stochastic Gradient Algorithms via
Power Spectral Density Analysis [6.497816402045099]
理論上の利点を持つ勾配降下(SGD)の2つの一般的な選択肢は、ランダムリシャッフル(SGDRR)とシャッフルオンス(SGD-SO)である。
本研究では,SGD,SGDRR,SGD-SOの定常変動について検討した。
論文 参考訳(メタデータ) (2022-06-01T17:08:04Z) - Random-reshuffled SARAH does not need a full gradient computations [61.85897464405715]
StochAstic Recursive grAdientritHm (SARAH)アルゴリズムは、Gradient Descent (SGD)アルゴリズムのばらつき低減版である。
本稿では,完全勾配の必要性を除去する。
集約された勾配は、SARAHアルゴリズムの完全な勾配の見積もりとなる。
論文 参考訳(メタデータ) (2021-11-26T06:00:44Z) - Quantum Sub-Gaussian Mean Estimator [0.0]
実数値確率変数の平均を推定する新しい量子アルゴリズムを提案する。
我々の推定器は古典的なi.d.サンプルの数に対して、ほぼ最適2次高速化を達成する。
論文 参考訳(メタデータ) (2021-08-27T08:34:26Z) - Differentiable Annealed Importance Sampling and the Perils of Gradient
Noise [68.44523807580438]
Annealed importance sample (AIS) と関連するアルゴリズムは、限界推定のための非常に効果的なツールである。
差別性は、目的として限界確率を最適化する可能性を認めるため、望ましい性質である。
我々はメトロポリス・ハスティングスのステップを放棄して微分可能アルゴリズムを提案し、ミニバッチ計算をさらに解き放つ。
論文 参考訳(メタデータ) (2021-07-21T17:10:14Z) - Spectral clustering under degree heterogeneity: a case for the random
walk Laplacian [83.79286663107845]
本稿では,ランダムウォークラプラシアンを用いたグラフスペクトル埋め込みが,ノード次数に対して完全に補正されたベクトル表現を生成することを示す。
次数補正ブロックモデルの特別な場合、埋め込みはK個の異なる点に集中し、コミュニティを表す。
論文 参考訳(メタデータ) (2021-05-03T16:36:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。