論文の概要: Optimal Sample Complexity of Subgradient Descent for Amplitude Flow via
Non-Lipschitz Matrix Concentration
- arxiv url: http://arxiv.org/abs/2011.00288v2
- Date: Fri, 27 Aug 2021 20:59:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 05:20:02.568797
- Title: Optimal Sample Complexity of Subgradient Descent for Amplitude Flow via
Non-Lipschitz Matrix Concentration
- Title(参考訳): 非リプシッツマトリクス濃度による振幅流の緩やかな沈み込みの最適試料複雑度
- Authors: Paul Hand, Oscar Leong, Vladislav Voroninski
- Abstract要約: 我々は、実数値の$n$次元信号を、位相のない線形測定値から復元する問題を考察する。
ランダムな不連続行列値演算子の均一な濃度に基づいて, 最適なサンプル複雑性を持つ下降勾配の局所収束を確立する。
- 参考スコア(独自算出の注目度): 12.989855325491163
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the problem of recovering a real-valued $n$-dimensional signal
from $m$ phaseless, linear measurements and analyze the amplitude-based
non-smooth least squares objective. We establish local convergence of
subgradient descent with optimal sample complexity based on the uniform
concentration of a random, discontinuous matrix-valued operator arising from
the objective's gradient dynamics. While common techniques to establish uniform
concentration of random functions exploit Lipschitz continuity, we prove that
the discontinuous matrix-valued operator satisfies a uniform matrix
concentration inequality when the measurement vectors are Gaussian as soon as
$m = \Omega(n)$ with high probability. We then show that satisfaction of this
inequality is sufficient for subgradient descent with proper initialization to
converge linearly to the true solution up to the global sign ambiguity. As a
consequence, this guarantees local convergence for Gaussian measurements at
optimal sample complexity. The concentration methods in the present work have
previously been used to establish recovery guarantees for a variety of inverse
problems under generative neural network priors. This paper demonstrates the
applicability of these techniques to more traditional inverse problems and
serves as a pedagogical introduction to those results.
- Abstract(参考訳): 位相のない実数値の$n$次元信号を線形測定し、振幅に基づく非滑らかな最小二乗の目的を解析する問題を考察する。
目的の勾配ダイナミクスから生じる不連続な行列値演算子の均一な濃度に基づいて,最適サンプル複雑性を持つ部分次数降下の局所収束を確立する。
ランダム関数の均一濃度を確立するための一般的な手法はリプシッツ連続性を利用するが、不連続行列値作用素は、測定ベクトルが高確率で$m = \Omega(n)$ のとき、一様行列濃度の不等式を満たすことを証明する。
次に、この不等式を満足することは、大域的な符号曖昧性まで真の解に線形収束する適切な初期化を持つ劣次降に対して十分であることを示す。
その結果、最適なサンプル複雑性でガウス測定の局所収束が保証される。
本研究における集中法は, 従来, 生成的ニューラルネットワーク前処理下での様々な逆問題に対する回復保証を確立するために用いられてきた。
本稿では,これらの手法をより伝統的な逆問題に適用する可能性を示し,それらの結果を教育的に紹介する。
関連論文リスト
- A Sample Efficient Alternating Minimization-based Algorithm For Robust Phase Retrieval [56.67706781191521]
そこで本研究では,未知の信号の復元を課題とする,ロバストな位相探索問題を提案する。
提案するオラクルは、単純な勾配ステップと外れ値を用いて、計算学的スペクトル降下を回避している。
論文 参考訳(メタデータ) (2024-09-07T06:37:23Z) - Symmetric Matrix Completion with ReLU Sampling [15.095194065320987]
エントリー依存サンプリングによる対称正半定値低ランク行列補完(MC)の問題について検討する。
特に、静止点のみを観測する修正線形単位(ReLU)サンプリングについて検討する。
論文 参考訳(メタデータ) (2024-06-09T15:14:53Z) - Learning a Gaussian Mixture for Sparsity Regularization in Inverse
Problems [2.375943263571389]
逆問題では、スパーシティ事前の組み込みは、解に対する正則化効果をもたらす。
本稿では,ガウスの混合として事前に定式化された確率的疎性について提案する。
我々は、このネットワークのパラメータを推定するために、教師なしのトレーニング戦略と教師なしのトレーニング戦略をそれぞれ導入した。
論文 参考訳(メタデータ) (2024-01-29T22:52:57Z) - Robust Low-Rank Matrix Completion via a New Sparsity-Inducing
Regularizer [30.920908325825668]
本稿では,ハイブリッド常連Welsch (HOW) に新たな損失関数を提案する。
論文 参考訳(メタデータ) (2023-10-07T09:47:55Z) - Stochastic Mirror Descent for Large-Scale Sparse Recovery [13.500750042707407]
本稿では,2次近似の高次元スパースパラメータの統計的推定への応用について論じる。
提案アルゴリズムは, 回帰器分布の弱い仮定の下で, 推定誤差の最適収束を実現する。
論文 参考訳(メタデータ) (2022-10-23T23:23:23Z) - On the Convergence of Stochastic Extragradient for Bilinear Games with
Restarted Iteration Averaging [96.13485146617322]
本稿では, ステップサイズが一定であるSEG法の解析を行い, 良好な収束をもたらす手法のバリエーションを示す。
平均化で拡張した場合、SEGはナッシュ平衡に確実に収束し、スケジュールされた再起動手順を組み込むことで、その速度が確実に加速されることを証明した。
論文 参考訳(メタデータ) (2021-06-30T17:51:36Z) - Spectral clustering under degree heterogeneity: a case for the random
walk Laplacian [83.79286663107845]
本稿では,ランダムウォークラプラシアンを用いたグラフスペクトル埋め込みが,ノード次数に対して完全に補正されたベクトル表現を生成することを示す。
次数補正ブロックモデルの特別な場合、埋め込みはK個の異なる点に集中し、コミュニティを表す。
論文 参考訳(メタデータ) (2021-05-03T16:36:27Z) - Benign Overfitting of Constant-Stepsize SGD for Linear Regression [122.70478935214128]
帰納バイアスは 経験的に過剰フィットを防げる中心的存在です
この研究は、この問題を最も基本的な設定として考慮している: 線形回帰に対する定数ステップサイズ SGD。
我々は、(正規化されていない)SGDで得られるアルゴリズム正則化と、通常の最小二乗よりも多くの顕著な違いを反映する。
論文 参考訳(メタデータ) (2021-03-23T17:15:53Z) - Exact Linear Convergence Rate Analysis for Low-Rank Symmetric Matrix
Completion via Gradient Descent [22.851500417035947]
因数分解に基づく勾配降下は、因数分解行列の完備化を解くためのスケーラブルで効率的なアルゴリズムである。
勾配勾配降下は, 地球自然問題の解を推定するために, 高速収束を楽しむことを示す。
論文 参考訳(メタデータ) (2021-02-04T03:41:54Z) - Approximation Schemes for ReLU Regression [80.33702497406632]
我々はReLU回帰の根本的な問題を考察する。
目的は、未知の分布から引き出された2乗損失に対して、最も適したReLUを出力することである。
論文 参考訳(メタデータ) (2020-05-26T16:26:17Z) - On Linear Stochastic Approximation: Fine-grained Polyak-Ruppert and
Non-Asymptotic Concentration [115.1954841020189]
The inequality and non-asymptotic properties of approximation procedure with Polyak-Ruppert averaging。
一定のステップサイズと無限大となる反復数を持つ平均的反復数に対する中心極限定理(CLT)を証明する。
論文 参考訳(メタデータ) (2020-04-09T17:54:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。