論文の概要: Estimating Generalization Performance Along the Trajectory of Proximal SGD in Robust Regression
- arxiv url: http://arxiv.org/abs/2410.02629v1
- Date: Thu, 3 Oct 2024 16:13:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-04 02:02:21.104124
- Title: Estimating Generalization Performance Along the Trajectory of Proximal SGD in Robust Regression
- Title(参考訳): ロバスト回帰における近位SGD軌道に沿った一般化性能の推定
- Authors: Kai Tan, Pierre C. Bellec,
- Abstract要約: 本稿では,反復アルゴリズムの軌道に沿った反復の一般化誤差を正確に追跡する推定器を提案する。
結果は、ハマー回帰(英語版)、擬ハマー回帰(英語版)、および非滑らかな正則化子を持つそれらのペナル化変種(英語版)など、いくつかの例を通して説明される。
- 参考スコア(独自算出の注目度): 4.150180443030652
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper studies the generalization performance of iterates obtained by Gradient Descent (GD), Stochastic Gradient Descent (SGD) and their proximal variants in high-dimensional robust regression problems. The number of features is comparable to the sample size and errors may be heavy-tailed. We introduce estimators that precisely track the generalization error of the iterates along the trajectory of the iterative algorithm. These estimators are provably consistent under suitable conditions. The results are illustrated through several examples, including Huber regression, pseudo-Huber regression, and their penalized variants with non-smooth regularizer. We provide explicit generalization error estimates for iterates generated from GD and SGD, or from proximal SGD in the presence of a non-smooth regularizer. The proposed risk estimates serve as effective proxies for the actual generalization error, allowing us to determine the optimal stopping iteration that minimizes the generalization error. Extensive simulations confirm the effectiveness of the proposed generalization error estimates.
- Abstract(参考訳): 本稿では,高次元ロバスト回帰問題におけるGD,Stochastic Gradient Descent(SGD)およびそれらの近位変種による反復体の一般化性能について検討する。
機能の数はサンプルサイズに匹敵し、エラーは重くなる可能性がある。
本稿では,反復アルゴリズムの軌道に沿った反復の一般化誤差を正確に追跡する推定器を提案する。
これらの推定器は、適切な条件下では確実に一貫性がある。
結果は、ハマー回帰(英語版)、擬ハマー回帰(英語版)、および非滑らかな正則化子を持つそれらのペナル化変種(英語版)など、いくつかの例を通して説明される。
非滑らかな正則化器の存在下で、GDおよびSGD、または近位SGDから生成された反復数に対する明示的な一般化誤差推定を提供する。
提案したリスク推定は、実際の一般化誤差の有効なプロキシとして機能し、一般化誤差を最小限に抑える最適な停止繰り返しを決定することができる。
大規模シミュレーションにより,提案した一般化誤差推定の有効性が検証された。
関連論文リスト
- Generalized Simultaneous Perturbation-based Gradient Search with Reduced
Estimator Bias [7.372983005764439]
本稿では,雑音関数測定を用いた一般化同時摂動探索(GSPGS)の家系について述べる。
各推定器に必要な関数の測定回数は、所望の精度のレベルによって導かれる。
論文 参考訳(メタデータ) (2022-12-20T17:50:36Z) - Generalized Resubstitution for Classification Error Estimation [0.0]
経験的尺度に基づく一般化された再置換誤差推定器のファミリーを提案する。
これらの誤差推定器は計算効率が良く、分類器の再学習を必要としない。
論文 参考訳(メタデータ) (2021-10-23T19:42:11Z) - On the Double Descent of Random Features Models Trained with SGD [78.0918823643911]
勾配降下(SGD)により最適化された高次元におけるランダム特徴(RF)回帰特性について検討する。
本研究では, RF回帰の高精度な非漸近誤差境界を, 定常および適応的なステップサイズSGD設定の下で導出する。
理論的にも経験的にも二重降下現象を観察する。
論文 参考訳(メタデータ) (2021-10-13T17:47:39Z) - The Benefits of Implicit Regularization from SGD in Least Squares
Problems [116.85246178212616]
勾配降下(SGD)はアルゴリズム正則化効果が強い。
我々は、(正規化されていない)平均SGDで得られる暗黙の正則化とリッジ回帰の明示的な正則化の比較を行う。
論文 参考訳(メタデータ) (2021-08-10T09:56:47Z) - Benign Overfitting of Constant-Stepsize SGD for Linear Regression [122.70478935214128]
帰納バイアスは 経験的に過剰フィットを防げる中心的存在です
この研究は、この問題を最も基本的な設定として考慮している: 線形回帰に対する定数ステップサイズ SGD。
我々は、(正規化されていない)SGDで得られるアルゴリズム正則化と、通常の最小二乗よりも多くの顕著な違いを反映する。
論文 参考訳(メタデータ) (2021-03-23T17:15:53Z) - On the Generalization of Stochastic Gradient Descent with Momentum [58.900860437254885]
まず,アルゴリズムの安定性が一般化保証の確立に失敗する凸損失関数が存在することを示す。
滑らかなリプシッツ損失関数に対して、修正モーメントに基づく更新規則を解析し、一般化誤差の上界を認めることを示す。
強凸損失関数の特別な場合において、標準 SGDM の複数のエポックが SGDEM の特別な形式として一般化されるような運動量の範囲を見出す。
論文 参考訳(メタデータ) (2021-02-26T18:58:29Z) - CASTLE: Regularization via Auxiliary Causal Graph Discovery [89.74800176981842]
因果構造学習(CASTLE)の正規化を導入し,変数間の因果関係を共同学習することでニューラルネットワークの正規化を提案する。
CASTLEは因果的隣り合いを持つ因果的DAGの特徴のみを効率的に再構成する一方、再構成ベース正規化器は全ての入力特徴を過度に再構成する。
論文 参考訳(メタデータ) (2020-09-28T09:49:38Z) - When Does Preconditioning Help or Hurt Generalization? [74.25170084614098]
本稿では,第1次および第2次手法のテキスト単純バイアスが一般化特性の比較にどのように影響するかを示す。
本稿では、バイアス分散トレードオフを管理するためのいくつかのアプローチと、GDとNGDを補間する可能性について論じる。
論文 参考訳(メタデータ) (2020-06-18T17:57:26Z) - On Low-rank Trace Regression under General Sampling Distribution [9.699586426043885]
クロスバリデード推定器は一般仮定でほぼ最適誤差境界を満たすことを示す。
また, クロスバリデーション推定器はパラメータ選択理論に着想を得た手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2019-04-18T02:56:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。