論文の概要: Hyperparameter tuning via trajectory predictions: Stochastic prox-linear
methods in matrix sensing
- arxiv url: http://arxiv.org/abs/2402.01599v1
- Date: Fri, 2 Feb 2024 17:55:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-05 14:04:27.349478
- Title: Hyperparameter tuning via trajectory predictions: Stochastic prox-linear
methods in matrix sensing
- Title(参考訳): 軌道予測によるハイパーパラメータチューニング:行列センシングにおける確率的プロキシ線形法
- Authors: Mengqi Lou and Kabir Aladin Verchand and Ashwin Pananjady
- Abstract要約: ノイズにより劣化したランク1ガウス測度から未知のランク1行列を復元する問題を分析する。
我々は,この手法の正確な誤差を予測する決定論的再帰を導出する。
非漸近的なフレームワークを使用することで、これはどんなバッチサイズでも、幅広いステップサイズにも当てはまります。
- 参考スコア(独自算出の注目度): 6.446062819763263
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Motivated by the desire to understand stochastic algorithms for nonconvex
optimization that are robust to their hyperparameter choices, we analyze a
mini-batched prox-linear iterative algorithm for the problem of recovering an
unknown rank-1 matrix from rank-1 Gaussian measurements corrupted by noise. We
derive a deterministic recursion that predicts the error of this method and
show, using a non-asymptotic framework, that this prediction is accurate for
any batch-size and a large range of step-sizes. In particular, our analysis
reveals that this method, though stochastic, converges linearly from a local
initialization with a fixed step-size to a statistical error floor. Our
analysis also exposes how the batch-size, step-size, and noise level affect the
(linear) convergence rate and the eventual statistical estimation error, and we
demonstrate how to use our deterministic predictions to perform hyperparameter
tuning (e.g. step-size and batch-size selection) without ever running the
method. On a technical level, our analysis is enabled in part by showing that
the fluctuations of the empirical iterates around our deterministic predictions
scale with the error of the previous iterate.
- Abstract(参考訳): 高パラメータ選択に頑健な非凸最適化のための確率的アルゴリズムを理解したいという欲求に感心し、ノイズによって劣化したランク1のガウス測度から未知のランク1行列を復元する問題に対して、最小バッチの Prox-linear 反復アルゴリズムを解析する。
この手法の誤差を予測する決定論的再帰を導出し、非漸近的枠組みを用いて、この予測が任意のバッチサイズと幅広いステップサイズに対して正確であることを示す。
特に,本手法は確率的ではあるが,ステップサイズを固定した局所初期化から統計的エラーフロアへ線形収束することを示す。
また,本分析では,バッチサイズ,ステップサイズ,ノイズレベルが(線形)収束率および結果の統計的推定誤差にどのように影響するかを明らかにするとともに,決定論的予測を用いてハイパーパラメータチューニング(ステップサイズ,バッチサイズ選択など)を行う方法を示す。
技術的レベルでは、経験的反復の変動が、前回の反復の誤差と共に、決定論的予測の周りでスケールすることを示すことで、分析が可能である。
関連論文リスト
- Trust-Region Sequential Quadratic Programming for Stochastic Optimization with Random Models [57.52124921268249]
本稿では,1次と2次の両方の定常点を見つけるための信頼逐次準計画法を提案する。
本手法は, 1次定常点に収束するため, 対象対象の近似を最小化して定義された各イテレーションの勾配ステップを計算する。
2階定常点に収束するため,本手法は負曲率を減少するヘッセン行列を探索する固有ステップも計算する。
論文 参考訳(メタデータ) (2024-09-24T04:39:47Z) - Low-rank extended Kalman filtering for online learning of neural
networks from streaming data [71.97861600347959]
非定常データストリームから非線形関数のパラメータを推定するための効率的なオンライン近似ベイズ推定アルゴリズムを提案する。
この方法は拡張カルマンフィルタ (EKF) に基づいているが、新しい低ランク+斜角行列分解法を用いている。
変分推論に基づく手法とは対照的に,本手法は完全に決定論的であり,ステップサイズチューニングを必要としない。
論文 参考訳(メタデータ) (2023-05-31T03:48:49Z) - Stochastic Mirror Descent for Large-Scale Sparse Recovery [13.500750042707407]
本稿では,2次近似の高次元スパースパラメータの統計的推定への応用について論じる。
提案アルゴリズムは, 回帰器分布の弱い仮定の下で, 推定誤差の最適収束を実現する。
論文 参考訳(メタデータ) (2022-10-23T23:23:23Z) - Formal guarantees for heuristic optimization algorithms used in machine
learning [6.978625807687497]
グラディエント・Descent(SGD)とその変種は、大規模最適化機械学習(ML)問題において支配的な手法となっている。
本稿では,いくつかの凸最適化手法の形式的保証と改良アルゴリズムの提案を行う。
論文 参考訳(メタデータ) (2022-07-31T19:41:22Z) - Alternating minimization for generalized rank one matrix sensing: Sharp predictions from a random initialization [5.900674344455754]
ランクランダム行列の特性をdで推定する手法を示す。
鋭い収束は、単一のステップで正確な回復を保証する。
我々の分析は、この問題の他のいくつかの特性も明らかにしている。
論文 参考訳(メタデータ) (2022-07-20T05:31:05Z) - Differentiable Annealed Importance Sampling and the Perils of Gradient
Noise [68.44523807580438]
Annealed importance sample (AIS) と関連するアルゴリズムは、限界推定のための非常に効果的なツールである。
差別性は、目的として限界確率を最適化する可能性を認めるため、望ましい性質である。
我々はメトロポリス・ハスティングスのステップを放棄して微分可能アルゴリズムを提案し、ミニバッチ計算をさらに解き放つ。
論文 参考訳(メタデータ) (2021-07-21T17:10:14Z) - Understanding Implicit Regularization in Over-Parameterized Single Index
Model [55.41685740015095]
我々は高次元単一インデックスモデルのための正規化自由アルゴリズムを設計する。
暗黙正則化現象の理論的保証を提供する。
論文 参考訳(メタデータ) (2020-07-16T13:27:47Z) - Balancing Rates and Variance via Adaptive Batch-Size for Stochastic
Optimization Problems [120.21685755278509]
本研究は,ステップサイズの減衰が正確な収束に必要であるという事実と,一定のステップサイズがエラーまでの時間でより速く学習するという事実のバランスをとることを目的とする。
ステップサイズのミニバッチを最初から修正するのではなく,パラメータを適応的に進化させることを提案する。
論文 参考訳(メタデータ) (2020-07-02T16:02:02Z) - Sparse recovery by reduced variance stochastic approximation [5.672132510411465]
雑音観測によるスパース信号回復問題に対する反復2次最適化ルーチンの適用について論じる。
本稿では,Median-of-Meansのような手法を用いて,対応するソリューションの信頼性を向上する方法について述べる。
論文 参考訳(メタデータ) (2020-06-11T12:31:20Z) - Non-asymptotic bounds for stochastic optimization with biased noisy
gradient oracles [8.655294504286635]
関数の測定値が推定誤差を持つ設定を捉えるために,バイアス付き勾配オラクルを導入する。
提案するオラクルは,例えば,独立分散シミュレーションと同一分散シミュレーションのバッチによるリスク計測推定の実践的な状況にある。
論文 参考訳(メタデータ) (2020-02-26T12:53:04Z) - Implicit differentiation of Lasso-type models for hyperparameter
optimization [82.73138686390514]
ラッソ型問題に適した行列逆転のない効率的な暗黙微分アルゴリズムを提案する。
提案手法は,解の空間性を利用して高次元データにスケールする。
論文 参考訳(メタデータ) (2020-02-20T18:43:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。