論文の概要: Support recovery and sup-norm convergence rates for sparse pivotal
estimation
- arxiv url: http://arxiv.org/abs/2001.05401v3
- Date: Thu, 3 Sep 2020 16:58:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-11 06:15:56.503907
- Title: Support recovery and sup-norm convergence rates for sparse pivotal
estimation
- Title(参考訳): スパースピボット推定のためのサポートリカバリと超ノルム収束率
- Authors: Mathurin Massias and Quentin Bertrand and Alexandre Gramfort and
Joseph Salmon
- Abstract要約: 高次元スパース回帰では、ピボット推定器は最適な正規化パラメータがノイズレベルに依存しない推定器である。
非滑らかで滑らかな単一タスクとマルチタスク正方形ラッソ型推定器に対するミニマックス超ノルム収束率を示す。
- 参考スコア(独自算出の注目度): 79.13844065776928
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In high dimensional sparse regression, pivotal estimators are estimators for
which the optimal regularization parameter is independent of the noise level.
The canonical pivotal estimator is the square-root Lasso, formulated along with
its derivatives as a "non-smooth + non-smooth" optimization problem. Modern
techniques to solve these include smoothing the datafitting term, to benefit
from fast efficient proximal algorithms. In this work we show minimax sup-norm
convergence rates for non smoothed and smoothed, single task and multitask
square-root Lasso-type estimators. Thanks to our theoretical analysis, we
provide some guidelines on how to set the smoothing hyperparameter, and
illustrate on synthetic data the interest of such guidelines.
- Abstract(参考訳): 高次元スパース回帰では、ピボット推定器は最適な正規化パラメータがノイズレベルに依存しない推定器である。
正準ピボット推定器は平方根ラッソであり、微分とともに「非滑らか+非滑らか」最適化問題として定式化されている。
これらを解決するための現代的な手法には、高速な近似アルゴリズムの恩恵を受けるために、データ適合項を滑らかにすることが含まれる。
本研究では、非滑らかで滑らかな単一タスクとマルチタスク平方根ラッソ型推定器に対するミニマックス超ノルム収束率を示す。
理論解析により,スムース化ハイパーパラメータの設定方法に関するガイドラインを提示し,それらのガイドラインの興味を合成データに示す。
関連論文リスト
- Stochastic Zeroth-Order Optimization under Strongly Convexity and Lipschitz Hessian: Minimax Sample Complexity [59.75300530380427]
本稿では,アルゴリズムが検索対象関数の雑音評価にのみアクセス可能な2次スムーズかつ強い凸関数を最適化する問題を考察する。
本研究は, ミニマックス単純後悔率について, 一致した上界と下界を発達させることにより, 初めて厳密な評価を行ったものである。
論文 参考訳(メタデータ) (2024-06-28T02:56:22Z) - Stochastic Marginal Likelihood Gradients using Neural Tangent Kernels [78.6096486885658]
線形化されたラプラス近似に下界を導入する。
これらの境界は漸進的な最適化が可能であり、推定精度と計算複雑性とのトレードオフを可能にする。
論文 参考訳(メタデータ) (2023-06-06T19:02:57Z) - Stochastic Mirror Descent for Large-Scale Sparse Recovery [13.500750042707407]
本稿では,2次近似の高次元スパースパラメータの統計的推定への応用について論じる。
提案アルゴリズムは, 回帰器分布の弱い仮定の下で, 推定誤差の最適収束を実現する。
論文 参考訳(メタデータ) (2022-10-23T23:23:23Z) - Distributed Estimation and Inference for Semi-parametric Binary Response Models [8.309294338998539]
本稿では,分散コンピューティング環境下での半パラメトリック二値選択モデルの最大スコア推定について検討する。
直感的な分割・対数推定器は計算コストが高く、機械数に対する非正規制約によって制限される。
論文 参考訳(メタデータ) (2022-10-15T23:06:46Z) - Adaptive Zeroth-Order Optimisation of Nonconvex Composite Objectives [1.7640556247739623]
ゼロ階エントロピー合成目的のためのアルゴリズムを解析し,次元依存性に着目した。
これは、ミラー降下法と推定類似関数を用いて、決定セットの低次元構造を利用して達成される。
勾配を改善するため、Rademacherに基づく古典的なサンプリング法を置き換え、ミニバッチ法が非ユークリ幾何学に対処することを示す。
論文 参考訳(メタデータ) (2022-08-09T07:36:25Z) - Non-Convex Optimization with Certificates and Fast Rates Through Kernel
Sums of Squares [68.8204255655161]
非最適化近似問題を考える。
本稿では,最優先計算を保証するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-04-11T09:37:04Z) - STORM+: Fully Adaptive SGD with Momentum for Nonconvex Optimization [74.1615979057429]
本研究では,スムーズな損失関数に対する期待値である非バッチ最適化問題について検討する。
我々の研究は、学習率と運動量パラメータを適応的に設定する新しいアプローチとともに、STORMアルゴリズムの上に構築されている。
論文 参考訳(メタデータ) (2021-11-01T15:43:36Z) - Outlier-Robust Sparse Estimation via Non-Convex Optimization [73.18654719887205]
空間的制約が存在する場合の高次元統計量と非破壊的最適化の関連について検討する。
これらの問題に対する新規で簡単な最適化法を開発した。
結論として、効率よくステーションに収束する一階法は、これらのタスクに対して効率的なアルゴリズムを導出する。
論文 参考訳(メタデータ) (2021-09-23T17:38:24Z) - Adaptive estimation of a function from its Exponential Radon Transform
in presence of noise [0.0]
本稿では,ERT(Exponential Radon Transform)データから関数を推定するための局所適応型戦略を提案する。
我々は、非パラメトリックカーネル型推定器を構築し、ソボレフ正則性尺度を構成する関数のクラスに対して、提案した戦略は、最大$logn$ factorまでのミニマックス最適率に従うことを示す。
論文 参考訳(メタデータ) (2020-11-13T12:54:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。