論文の概要: A Survey of Numerical Algorithms that can Solve the Lasso Problems
- arxiv url: http://arxiv.org/abs/2303.03576v1
- Date: Tue, 7 Mar 2023 01:12:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-08 16:53:12.874938
- Title: A Survey of Numerical Algorithms that can Solve the Lasso Problems
- Title(参考訳): ラッソ問題を解く数値アルゴリズムの検討
- Authors: Yujie Zhao, Xiaoming Huo
- Abstract要約: 統計学において、最小絶対収縮・選択演算子 (Lasso) は、変分選択と正則化の両方を実行する回帰法である。
ラッソにおける目的関数を最適化する5つの代表アルゴリズムを要約する。
- 参考スコア(独自算出の注目度): 2.538209532048867
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In statistics, the least absolute shrinkage and selection operator (Lasso) is
a regression method that performs both variable selection and regularization.
There is a lot of literature available, discussing the statistical properties
of the regression coefficients estimated by the Lasso method. However, there
lacks a comprehensive review discussing the algorithms to solve the
optimization problem in Lasso. In this review, we summarize five representative
algorithms to optimize the objective function in Lasso, including the iterative
shrinkage threshold algorithm (ISTA), fast iterative shrinkage-thresholding
algorithms (FISTA), coordinate gradient descent algorithm (CGDA), smooth L1
algorithm (SLA), and path following algorithm (PFA). Additionally, we also
compare their convergence rate, as well as their potential strengths and
weakness.
- Abstract(参考訳): 統計学において、最小絶対収縮・選択演算子 (Lasso) は、変数選択と正規化の両方を実行する回帰法である。
ラッソ法によって推定される回帰係数の統計的性質について論じる文献は数多く存在する。
しかし、ラッソの最適化問題を解決するアルゴリズムを論じる包括的なレビューは存在しない。
本稿では,lassoの目的関数を最適化するための5つの代表的なアルゴリズムを概説する。その中には,反復収縮閾値アルゴリズム(ista),高速反復収縮緩和アルゴリズム(fista),座標勾配降下アルゴリズム(cgda),スムースl1アルゴリズム(sla),パス追従アルゴリズム(pfa)などがある。
さらに,それらの収束率と潜在的な強みと弱みを比較した。
関連論文リスト
- A Sample Efficient Alternating Minimization-based Algorithm For Robust Phase Retrieval [56.67706781191521]
そこで本研究では,未知の信号の復元を課題とする,ロバストな位相探索問題を提案する。
提案するオラクルは、単純な勾配ステップと外れ値を用いて、計算学的スペクトル降下を回避している。
論文 参考訳(メタデータ) (2024-09-07T06:37:23Z) - Accelerating Cutting-Plane Algorithms via Reinforcement Learning
Surrogates [49.84541884653309]
凸離散最適化問題に対する現在の標準的なアプローチは、カットプレーンアルゴリズムを使うことである。
多くの汎用カット生成アルゴリズムが存在するにもかかわらず、大規模な離散最適化問題は、難易度に悩まされ続けている。
そこで本研究では,強化学習による切削平面アルゴリズムの高速化手法を提案する。
論文 参考訳(メタデータ) (2023-07-17T20:11:56Z) - Coordinate Descent for SLOPE [6.838073951329198]
SLOPE(Sorted L-One Penalized Estimation, SLOPE)は、ラッソの一般化であり、統計的に魅力的な性質を持つ。
SLOPEに適合する現在のソフトウェアパッケージは、高次元において性能の悪いアルゴリズムに依存している。
近似勾配降下と近似座標降下ステップを組み合わせたSLOPE最適化問題を高速に解くアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-10-26T15:20:30Z) - An Algebraically Converging Stochastic Gradient Descent Algorithm for
Global Optimization [14.336473214524663]
アルゴリズムの主要な構成要素は、目的関数の値に基づくランダム性である。
アルゴリズムの収束を代数学で証明し、パラメータ空間でチューニングする。
アルゴリズムの効率性とロバスト性を示す数値的な例をいくつか提示する。
論文 参考訳(メタデータ) (2022-04-12T16:27:49Z) - Regret Bounds for Expected Improvement Algorithms in Gaussian Process
Bandit Optimization [63.8557841188626]
期待されている改善(EI)アルゴリズムは、不確実性の下で最適化するための最も一般的な戦略の1つである。
本稿では,GP予測平均を通した標準既存値を持つEIの変種を提案する。
我々のアルゴリズムは収束し、$mathcal O(gamma_TsqrtT)$の累積後悔境界を達成することを示す。
論文 参考訳(メタデータ) (2022-03-15T13:17:53Z) - Smoothed functional-based gradient algorithms for off-policy reinforcement learning: A non-asymptotic viewpoint [8.087699764574788]
政治外の強化学習コンテキストにおける制御問題の解法として,2つのポリシー勾配アルゴリズムを提案する。
どちらのアルゴリズムも、スムーズな関数的勾配推定スキームを取り入れている。
論文 参考訳(メタデータ) (2021-01-06T17:06:42Z) - Adaptive Sampling for Best Policy Identification in Markov Decision
Processes [79.4957965474334]
本稿では,学習者が生成モデルにアクセスできる場合の,割引マルコフ決定(MDP)における最良の政治的識別の問題について検討する。
最先端アルゴリズムの利点を論じ、解説する。
論文 参考訳(メタデータ) (2020-09-28T15:22:24Z) - Variance-Reduced Off-Policy Memory-Efficient Policy Search [61.23789485979057]
政治政策の最適化は強化学習において難しい問題である。
オフポリシーアルゴリズムはメモリ効率が高く、オフポリシーサンプルから学ぶことができる。
論文 参考訳(メタデータ) (2020-09-14T16:22:46Z) - Provably Convergent Working Set Algorithm for Non-Convex Regularized
Regression [0.0]
本稿では、収束保証付き非正則正規化器のためのワーキングセットアルゴリズムを提案する。
その結果,ブロックコーディネートや勾配ソルバの完全解法と比較して高い利得を示した。
論文 参考訳(メタデータ) (2020-06-24T07:40:31Z) - Efficient Path Algorithms for Clustered Lasso and OSCAR [0.0]
本稿では,クラスタリングされたLassoとOSCARのための効率的な経路アルゴリズムを提案する。
提案アルゴリズムは数値実験において既存のアルゴリズムよりも効率的であることが示されている。
論文 参考訳(メタデータ) (2020-06-16T07:43:57Z) - Exploiting Higher Order Smoothness in Derivative-free Optimization and
Continuous Bandits [99.70167985955352]
強凸関数のゼロ次最適化問題について検討する。
予測勾配降下アルゴリズムのランダム化近似を考察する。
その結果,0次アルゴリズムはサンプルの複雑性や問題パラメータの点でほぼ最適であることが示唆された。
論文 参考訳(メタデータ) (2020-06-14T10:42:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。