論文の概要: Variable Selection and Regularization via Arbitrary Rectangle-range
Generalized Elastic Net
- arxiv url: http://arxiv.org/abs/2112.07785v1
- Date: Tue, 14 Dec 2021 23:19:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2021-12-16 14:03:14.713829
- Title: Variable Selection and Regularization via Arbitrary Rectangle-range
Generalized Elastic Net
- Title(参考訳): 任意矩形レンジ一般化弾性ネットによる可変選択と正規化
- Authors: Yujia Ding, Qidi Peng, Zhengming Song, Hansen Chen
- Abstract要約: 高次元スパース線形モデルにおける制約変数の選択と正規化を行うために、任意の矩形レンジ一般化弾性ネットペナルティ法(ARGEN)を導入する。
非負の弾性ネットペナルティ法の自然な拡張として、ARGENはいくつかの条件下での可変選択整合性と推定整合性を持つことが証明された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce the arbitrary rectangle-range generalized elastic net penalty
method, abbreviated to ARGEN, for performing constrained variable selection and
regularization in high-dimensional sparse linear models. As a natural extension
of the nonnegative elastic net penalty method, ARGEN is proved to have variable
selection consistency and estimation consistency under some conditions. The
asymptotic behavior in distribution of the ARGEN estimators have been studied.
We also propose an algorithm called MU-QP-RR-W-$l_1$ to efficiently solve
ARGEN. By conducting simulation study we show that ARGEN outperforms the
elastic net in a number of settings. Finally an application of S&P 500 index
tracking with constraints on the stock allocations is performed to provide
general guidance for adapting ARGEN to solve real-world problems.
- Abstract(参考訳): 高次元スパース線形モデルにおける制約変数の選択と正規化を行うために、任意の矩形レンジ一般化弾性ネットペナルティ法(ARGEN)を導入する。
非負の弾性ネットペナルティ法の自然な拡張として、ARGENはいくつかの条件下での可変選択整合性と推定整合性を持つことが証明された。
ARGEN推定器の分布における漸近的挙動について検討した。
MU-QP-RR-W-$l_1$というアルゴリズムも提案する。
シミュレーション研究により、ARGENは様々な環境で弾性ネットより優れることを示した。
最後に,ストックアロケーションに制約のあるS&P 500インデックストラッキングの適用を行い,実世界の問題を解決するためにARGENを適用するための一般的なガイダンスを提供する。
関連論文リスト
- A Unified Approach to Controlling Implicit Regularization via Mirror
Descent [18.536453909759544]
ミラー降下(MD)は勾配降下(GD)の顕著な一般化である
MDを効率的に実装することができ、適切な条件下での高速収束を享受できることを示す。
論文 参考訳(メタデータ) (2023-06-24T03:57:26Z) - Constrained Optimization via Exact Augmented Lagrangian and Randomized
Iterative Sketching [55.28394191394675]
等式制約付き非線形非IBS最適化問題に対する適応的不正確なニュートン法を開発した。
ベンチマーク非線形問題,LVMのデータによる制約付きロジスティック回帰,PDE制約問題において,本手法の優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-28T06:33:37Z) - Generalized Invariant Matching Property via LASSO [19.786769414376323]
本研究では,内在空間の高次元問題を定式化することにより,不変マッチング特性を一般化する。
本稿では,Lassoの変種を利用して,より堅牢で計算効率の良いアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-01-14T21:09:30Z) - Provably tuning the ElasticNet across instances [53.0518090093538]
我々は、複数の問題インスタンスにまたがるリッジ回帰、LASSO、ElasticNetの正規化パラメータをチューニングする問題を考察する。
我々の結果は、この重要な問題に対する学習理論による最初の一般的な保証である。
論文 参考訳(メタデータ) (2022-07-20T21:22:40Z) - An Adaptive Incremental Gradient Method With Support for Non-Euclidean
Norms [19.41328109094503]
そこで本研究では,SAGAアルゴリズムの適応型を新たにいくつか提案し,解析する。
一般的な設定の下で収束保証を確立する。
我々は、非ユークリッドノルムをサポートするためにSAGAの分析を改善した。
論文 参考訳(メタデータ) (2022-04-28T09:43:07Z) - The Benefits of Implicit Regularization from SGD in Least Squares
Problems [116.85246178212616]
勾配降下(SGD)はアルゴリズム正則化効果が強い。
我々は、(正規化されていない)平均SGDで得られる暗黙の正則化とリッジ回帰の明示的な正則化の比較を行う。
論文 参考訳(メタデータ) (2021-08-10T09:56:47Z) - A general sample complexity analysis of vanilla policy gradient [101.16957584135767]
政策勾配(PG)は、最も一般的な強化学習(RL)問題の1つである。
PG軌道の「バニラ」理論的理解は、RL問題を解く最も一般的な方法の1つである。
論文 参考訳(メタデータ) (2021-07-23T19:38:17Z) - Hierarchical Non-Stationary Temporal Gaussian Processes With
$L^1$-Regularization [11.408721072077604]
我々は、明示的に構築された非定常共分散関数と微分方程式に基づく2つのよく使われるNSGP構成を考える。
これらのNSGPは、スパース性を誘導するために、プロセスに$L1$-regularizationを含めることで拡張する。
結果の正規化NSGP(R-NSGP)回帰問題を解決するために,乗算器の交互方向法(ADMM)に基づく手法を開発した。
論文 参考訳(メタデータ) (2021-05-20T12:15:33Z) - Benign Overfitting of Constant-Stepsize SGD for Linear Regression [122.70478935214128]
帰納バイアスは 経験的に過剰フィットを防げる中心的存在です
この研究は、この問題を最も基本的な設定として考慮している: 線形回帰に対する定数ステップサイズ SGD。
我々は、(正規化されていない)SGDで得られるアルゴリズム正則化と、通常の最小二乗よりも多くの顕著な違いを反映する。
論文 参考訳(メタデータ) (2021-03-23T17:15:53Z) - Momentum Improves Normalized SGD [51.27183254738711]
モーメントを追加することで、目的に対する大きなバッチサイズの必要性を確実に排除できることを示す。
本稿では,ResNet-50 や BERT といった大規模タスクの事前学習において,提案手法が有効であることを示す。
論文 参考訳(メタデータ) (2020-02-09T07:00:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。