論文の概要: Max-affine regression via first-order methods
- arxiv url: http://arxiv.org/abs/2308.08070v1
- Date: Tue, 15 Aug 2023 23:46:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-17 15:23:34.364001
- Title: Max-affine regression via first-order methods
- Title(参考訳): 1次法による最大アフィン回帰
- Authors: Seonho Kim and Kiryung Lee
- Abstract要約: 最大アフィンモデルは信号処理と統計学の応用においてユビキタスに現れる。
最大アフィン回帰に対する勾配降下(GD)とミニバッチ勾配降下(SGD)の非漸近収束解析を行った。
- 参考スコア(独自算出の注目度): 7.12511675782289
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider regression of a max-affine model that produces a piecewise linear
model by combining affine models via the max function. The max-affine model
ubiquitously arises in applications in signal processing and statistics
including multiclass classification, auction problems, and convex regression.
It also generalizes phase retrieval and learning rectifier linear unit
activation functions. We present a non-asymptotic convergence analysis of
gradient descent (GD) and mini-batch stochastic gradient descent (SGD) for
max-affine regression when the model is observed at random locations following
the sub-Gaussianity and an anti-concentration with additive sub-Gaussian noise.
Under these assumptions, a suitably initialized GD and SGD converge linearly to
a neighborhood of the ground truth specified by the corresponding error bound.
We provide numerical results that corroborate the theoretical finding.
Importantly, SGD not only converges faster in run time with fewer observations
than alternating minimization and GD in the noiseless scenario but also
outperforms them in low-sample scenarios with noise.
- Abstract(参考訳): 我々は、max関数を介してアフィンモデルを結合することにより分割線形モデルを生成するmax-affineモデルの回帰を考える。
最大アフィンモデルは、多クラス分類、オークション問題、凸回帰を含む信号処理と統計学の応用においてユビキタスに現れる。
また、位相検索および学習整流器線形単位活性化関数を一般化する。
準ガウス音に追従したランダムな位置でモデルが観測された場合, 勾配降下(GD)と最小バッチ確率勾配降下(SGD)の非漸近収束解析を行い, 加法的サブガウス音による反集束解析を行った。
これらの仮定の下で、適切な初期化gdとsgdは、対応する誤差境界によって指定された基底真理の近傍に線形収束する。
理論的発見を裏付ける数値結果を提供する。
重要なことは、SGDは、ノイズのないシナリオにおける最小化とGDの交互化よりも少ない観測時間でより高速に収束するだけでなく、ノイズのある低サンプリングシナリオにおいてそれらを上回ります。
関連論文リスト
- Agnostic Learning of Mixed Linear Regressions with EM and AM Algorithms [22.79595679373698]
混合線形回帰は統計学と機械学習においてよく研究されている問題である。
本稿では、サンプルから混合線形回帰を学習する際のより一般的な問題について考察する。
AMアルゴリズムとEMアルゴリズムは, 集団損失最小化器に収束することにより, 混合線形回帰学習につながることを示す。
論文 参考訳(メタデータ) (2024-06-03T09:43:24Z) - Unveiling the Cycloid Trajectory of EM Iterations in Mixed Linear Regression [5.883916678819683]
2成分混合線形回帰(2MLR)における反復の軌跡と期待最大化(EM)アルゴリズムの収束率について検討する。
近年, ノイズレスおよび高SNR環境下での2MLRにおけるEMの超線形収束が確立されている。
論文 参考訳(メタデータ) (2024-05-28T14:46:20Z) - Provably Accelerating Ill-Conditioned Low-rank Estimation via Scaled
Gradient Descent, Even with Overparameterization [48.65416821017865]
この章では、スケールドグラデーション(ScaledGD)と呼ばれる新しいアルゴリズムアプローチを紹介します。
低ランク物体の条件数に依存しない定数速度で直線的に収束する。
様々なタスクに対して、勾配降下の低い摂動コストを維持できる。
論文 参考訳(メタデータ) (2023-10-09T21:16:57Z) - Probabilistic Unrolling: Scalable, Inverse-Free Maximum Likelihood
Estimation for Latent Gaussian Models [69.22568644711113]
我々は,モンテカルロサンプリングと反復線形解法を組み合わせた確率的アンローリングを導入し,行列逆転を回避した。
理論的解析により,解法の繰り返しによる解法の解法と逆転が最大値推定の勾配推定を高速化することを示した。
シミュレーションおよび実データ実験において、確率的アンロールは、モデル性能の損失を最小限に抑えながら、勾配EMよりも桁違いに高速な潜在ガウスモデルを学習することを示した。
論文 参考訳(メタデータ) (2023-06-05T21:08:34Z) - Implicit Bias of Gradient Descent for Logistic Regression at the Edge of
Stability [69.01076284478151]
機械学習の最適化において、勾配降下(GD)はしばしば安定性の端(EoS)で動く
本稿では,EoS系における線形分離可能なデータに対するロジスティック回帰のための定数段差GDの収束と暗黙バイアスについて検討する。
論文 参考訳(メタデータ) (2023-05-19T16:24:47Z) - Nonconvex Stochastic Scaled-Gradient Descent and Generalized Eigenvector
Problems [98.34292831923335]
オンライン相関解析の問題から,emphStochastic Scaled-Gradient Descent (SSD)アルゴリズムを提案する。
我々はこれらのアイデアをオンライン相関解析に適用し、局所収束率を正規性に比例した最適な1時間スケールのアルゴリズムを初めて導いた。
論文 参考訳(メタデータ) (2021-12-29T18:46:52Z) - On the Double Descent of Random Features Models Trained with SGD [78.0918823643911]
勾配降下(SGD)により最適化された高次元におけるランダム特徴(RF)回帰特性について検討する。
本研究では, RF回帰の高精度な非漸近誤差境界を, 定常および適応的なステップサイズSGD設定の下で導出する。
理論的にも経験的にも二重降下現象を観察する。
論文 参考訳(メタデータ) (2021-10-13T17:47:39Z) - Differentiable Annealed Importance Sampling and the Perils of Gradient
Noise [68.44523807580438]
Annealed importance sample (AIS) と関連するアルゴリズムは、限界推定のための非常に効果的なツールである。
差別性は、目的として限界確率を最適化する可能性を認めるため、望ましい性質である。
我々はメトロポリス・ハスティングスのステップを放棄して微分可能アルゴリズムを提案し、ミニバッチ計算をさらに解き放つ。
論文 参考訳(メタデータ) (2021-07-21T17:10:14Z) - Convergence Analysis of Homotopy-SGD for non-convex optimization [43.71213126039448]
ホモトピー法とSGDを組み合わせた一階述語アルゴリズム、Gradienty-Stoch Descent (H-SGD)を提案する。
いくつかの仮定の下で、提案した問題の理論的解析を行う。
実験の結果,H-SGDはSGDより優れていた。
論文 参考訳(メタデータ) (2020-11-20T09:50:40Z) - Binary Classification of Gaussian Mixtures: Abundance of Support
Vectors, Benign Overfitting and Regularization [39.35822033674126]
生成ガウス混合モデルに基づく二項線形分類について検討する。
後者の分類誤差に関する新しい非漸近境界を導出する。
この結果は, 確率が一定である雑音モデルに拡張される。
論文 参考訳(メタデータ) (2020-11-18T07:59:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。