論文の概要: Randomly Initialized Alternating Least Squares: Fast Convergence for
Matrix Sensing
- arxiv url: http://arxiv.org/abs/2204.11516v1
- Date: Mon, 25 Apr 2022 08:55:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-26 15:52:25.589016
- Title: Randomly Initialized Alternating Least Squares: Fast Convergence for
Matrix Sensing
- Title(参考訳): ランダム初期化最小角形:マトリックスセンシングのための高速収束
- Authors: Kiryung Lee, Dominik St\"oger
- Abstract要約: Alternating Least Squares (ALS) は $O(log n + log (1/varepsilon)) $ iterations において $varepsilon$-accuracy で真の解に収束することを示す。
我々の証明の鍵となるのは、ALSの軌道が反復する観察は、ランダムな測定行列の特定のエントリのみに非常に軽度に依存することである。
- 参考スコア(独自算出の注目度): 9.264464791978362
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the problem of reconstructing rank-one matrices from random
linear measurements, a task that appears in a variety of problems in signal
processing, statistics, and machine learning. In this paper, we focus on the
Alternating Least Squares (ALS) method. While this algorithm has been studied
in a number of previous works, most of them only show convergence from an
initialization close to the true solution and thus require a carefully designed
initialization scheme. However, random initialization has often been preferred
by practitioners as it is model-agnostic. In this paper, we show that ALS with
random initialization converges to the true solution with
$\varepsilon$-accuracy in $O(\log n + \log (1/\varepsilon)) $ iterations using
only a near-optimal amount of samples, where we assume the measurement matrices
to be i.i.d. Gaussian and where by $n$ we denote the ambient dimension. Key to
our proof is the observation that the trajectory of the ALS iterates only
depends very mildly on certain entries of the random measurement matrices.
Numerical experiments corroborate our theoretical predictions.
- Abstract(参考訳): 本稿では,信号処理,統計,機械学習における様々な問題に現れるタスクであるランダム線形計測からランク1行列を再構成する問題を考える。
本稿では, Alternating Least Squares (ALS) 法に着目した。
このアルゴリズムは以前の多くの研究で研究されてきたが、その多くは真の解に近い初期化から収束することしか示さず、慎重に設計された初期化スキームを必要とする。
しかしながら、ランダム初期化はモデルに依存しないため、実践者によってしばしば好まれている。
本稿では、ランダム初期化を持つALSが真の解に収束することを示す。$O(\log n + \log (1/\varepsilon)) $ iterations in $O(\log n + \log (1/\varepsilon)) $ iterations using a almost-timal amount of sample, ここで、測定行列をガウス行列と仮定し、$n$で周囲次元を表す。
我々の証明の鍵となるのは、ALSの軌道が反復する観察は、ランダムな測定行列の特定のエントリのみに非常に軽度に依存することである。
数値実験は我々の理論予測を裏付ける。
関連論文リスト
- A Sample Efficient Alternating Minimization-based Algorithm For Robust Phase Retrieval [56.67706781191521]
そこで本研究では,未知の信号の復元を課題とする,ロバストな位相探索問題を提案する。
提案するオラクルは、単純な勾配ステップと外れ値を用いて、計算学的スペクトル降下を回避している。
論文 参考訳(メタデータ) (2024-09-07T06:37:23Z) - Rank-1 Matrix Completion with Gradient Descent and Small Random
Initialization [15.127728811011245]
我々は,GDの暗黙的正規化が分析において重要な役割を担っていることを示す。
我々は、手頃な分析において暗黙の正規化GDが重要な役割を担っていることを観察する。
論文 参考訳(メタデータ) (2022-12-19T12:05:37Z) - Alternating minimization algorithm with initialization analysis for
r-local and k-sparse unlabeled sensing [10.751269349279912]
ラベルなしセンシング問題は、変分線形測定から未知の信号を復元することである。
広範に検討されているk-スパース置換モデルに対して,初期化に適した交互最小化アルゴリズムを提案する。
我々のアルゴリズムは計算にスケーラブルであり、ベースライン法と比較すると、実データや合成データに対して優れた性能が得られる。
論文 参考訳(メタデータ) (2022-11-14T18:44:55Z) - Alternating minimization for generalized rank one matrix sensing: Sharp predictions from a random initialization [5.900674344455754]
ランクランダム行列の特性をdで推定する手法を示す。
鋭い収束は、単一のステップで正確な回復を保証する。
我々の分析は、この問題の他のいくつかの特性も明らかにしている。
論文 参考訳(メタデータ) (2022-07-20T05:31:05Z) - Test Set Sizing Via Random Matrix Theory [91.3755431537592]
本稿ではランダム行列理論の手法を用いて、単純な線形回帰に対して理想的なトレーニング-テストデータ分割を求める。
それは「理想」を整合性計量を満たすものとして定義し、すなわち経験的モデル誤差は実際の測定ノイズである。
本論文は,任意のモデルのトレーニングとテストサイズを,真に最適な方法で解決した最初の論文である。
論文 参考訳(メタデータ) (2021-12-11T13:18:33Z) - Towards Sample-Optimal Compressive Phase Retrieval with Sparse and
Generative Priors [59.33977545294148]
O(k log L)$サンプルは振幅に基づく経験損失関数を最小化する任意のベクトルに信号が近いことを保証するのに十分であることを示す。
この結果はスパース位相検索に適応し、基底信号が$s$-sparseおよび$n$-dimensionalである場合、$O(s log n)$サンプルは同様の保証に十分であることを示す。
論文 参考訳(メタデータ) (2021-06-29T12:49:54Z) - Linear-Sample Learning of Low-Rank Distributions [56.59844655107251]
ktimes k$, rank-r$, matrices to normalized $L_1$ distance requires $Omega(frackrepsilon2)$ sample。
我々は、$cal O(frackrepsilon2log2fracepsilon)$ sample, a number linear in the high dimension, and almost linear in the matrices, usually low, rank proofs.というアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-30T19:10:32Z) - Optimal Randomized First-Order Methods for Least-Squares Problems [56.05635751529922]
このアルゴリズムのクラスは、最小二乗問題に対する最も高速な解法のうち、いくつかのランダム化手法を含んでいる。
我々は2つの古典的埋め込み、すなわちガウス射影とアダマール変換のサブサンプリングに焦点を当てる。
得られたアルゴリズムは条件数に依存しない最小二乗問題の解法として最も複雑である。
論文 参考訳(メタデータ) (2020-02-21T17:45:32Z) - Asymptotic errors for convex penalized linear regression beyond Gaussian
matrices [23.15629681360836]
雑音線形観測から係数ベクトル$x_0$ in$RN$を学習する問題を考察する。
平均二乗誤差に対する明示的な式を厳密に導出する。
我々の予測は、非常に適度なサイズであっても、数値と非常によく一致していることを示す。
論文 参考訳(メタデータ) (2020-02-11T13:43:32Z) - Optimal Iterative Sketching with the Subsampled Randomized Hadamard
Transform [64.90148466525754]
最小二乗問題に対する反復スケッチの性能について検討する。
本研究では、Haar行列とランダム化されたHadamard行列の収束速度が同一であることを示し、ランダムなプロジェクションを経時的に改善することを示した。
これらの手法は、ランダム化次元還元を用いた他のアルゴリズムにも適用することができる。
論文 参考訳(メタデータ) (2020-02-03T16:17:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。