論文の概要: A Scalable, Adaptive and Sound Nonconvex Regularizer for Low-rank Matrix
Completion
- arxiv url: http://arxiv.org/abs/2008.06542v4
- Date: Mon, 22 Feb 2021 07:54:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-30 16:53:01.472962
- Title: A Scalable, Adaptive and Sound Nonconvex Regularizer for Low-rank Matrix
Completion
- Title(参考訳): 低ランク行列補完のための拡張性・適応性・音質非凸正規化器
- Authors: Yaqing Wang and Quanming Yao and James T. Kwok
- Abstract要約: そこで我々は,適応的かつ音質の高い"核フロベニウスノルム"と呼ばれる新しい非スケーラブルな低ランク正規化器を提案する。
特異値の計算をバイパスし、アルゴリズムによる高速な最適化を可能にする。
既存の行列学習手法では最速でありながら、最先端の回復性能が得られる。
- 参考スコア(独自算出の注目度): 60.52730146391456
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Matrix learning is at the core of many machine learning problems. A number of
real-world applications such as collaborative filtering and text mining
can be formulated as a low-rank matrix completion problem, which recovers
incomplete matrix using low-rank assumptions. To ensure that the matrix
solution has a low rank, a recent trend is to use nonconvex regularizers that
adaptively penalize singular values. They offer good recovery performance and
have nice theoretical properties, but are computationally expensive due to
repeated access to individual singular values. In this paper, based on the key
insight that adaptive shrinkage on singular values improve empirical
performance, we propose a new nonconvex low-rank regularizer called "nuclear
norm minus Frobenius norm" regularizer, which is scalable, adaptive and sound.
We first show it provably holds the adaptive shrinkage property. Further, we
discover its factored form which bypasses the computation of singular values
and allows fast optimization by general optimization algorithms. Stable
recovery and convergence are guaranteed. Extensive low-rank matrix completion
experiments on a number of synthetic and real-world data sets show that the
proposed method obtains state-of-the-art recovery performance while being the
fastest in comparison to existing low-rank matrix learning methods.
- Abstract(参考訳): マトリックス学習は、多くの機械学習問題の核心にある。
協調フィルタリングやテキストマイニングなどの現実的な応用は、低ランク行列補完問題として定式化することができ、低ランク仮定を用いて不完全行列を復元する。
行列解がランクが低いことを保証するために、最近のトレンドは特異値を適応的にペナリゼーションする非凸正則化器を使用することである。
それらは良好な回復性能と優れた理論特性を提供するが、個々の特異値への繰り返しアクセスのために計算的に高価である。
本稿では,特異値に対する適応的縮小が経験的性能を向上させるという鍵となる知見に基づいて,スケーラブルで適応的で音質の高い「核ノルムminus frobenius norm」正規化器を提案する。
まず適応収縮特性を確実に保持することを示す。
さらに,特異値の計算を回避し,一般最適化アルゴリズムによる高速最適化を可能にする因子形式を見出した。
安定回復と収束が保証される。
複数の合成および実世界のデータセットに対する広範囲な低ランク行列補完実験により,提案手法が既存の低ランク行列学習法と比較して高速でありながら,最先端のリカバリ性能が得られることを示した。
関連論文リスト
- Efficient Low-rank Identification via Accelerated Iteratively Reweighted Nuclear Norm Minimization [8.879403568685499]
パラメータの平滑化に適応的な更新戦略を導入する。
この振る舞いは、アルゴリズムを数回繰り返した後に、効果的に問題を解決するものに変えます。
すべてのイテレーションが重要なものであることを保証し、グローバルに提案された実験を証明します。
論文 参考訳(メタデータ) (2024-06-22T02:37:13Z) - Stochastic Optimization for Non-convex Problem with Inexact Hessian
Matrix, Gradient, and Function [99.31457740916815]
信頼領域(TR)と立方体を用いた適応正則化は、非常に魅力的な理論的性質を持つことが証明されている。
TR法とARC法はヘッセン関数,勾配関数,関数値の非コンパクトな計算を同時に行うことができることを示す。
論文 参考訳(メタデータ) (2023-10-18T10:29:58Z) - Spectral Entry-wise Matrix Estimation for Low-Rank Reinforcement
Learning [53.445068584013896]
低ランク構造を持つ強化学習(RL)における行列推定問題について検討した。
低ランク帯では、回収される行列は期待される腕の報酬を指定し、低ランクマルコフ決定プロセス(MDP)では、例えばMDPの遷移カーネルを特徴付ける。
簡単なスペクトルベースの行列推定手法は,行列の特異部分空間を効率よく復元し,ほぼ最小の入力誤差を示すことを示す。
論文 参考訳(メタデータ) (2023-10-10T17:06:41Z) - Low-Rank Tensor Completion via Novel Sparsity-Inducing Regularizers [30.920908325825668]
低ランクテンソル完備化問題において、l1-ノルムを緩和するため、非ランクサロゲート/正則化器が提案されている。
これらの正則化器は核ランク復元に適用され,乗算器法に基づく効率的なアルゴリズムが提案されている。
論文 参考訳(メタデータ) (2023-10-10T01:00:13Z) - Low-rank Tensor Learning with Nonconvex Overlapped Nuclear Norm
Regularization [44.54772242784423]
低ランク学習行列に対する効率的な非正規化アルゴリズムを開発した。
提案アルゴリズムは、高価な折り畳み/折り畳み問題を回避することができる。
実験の結果,提案アルゴリズムは既存の状態よりも効率的で空間が広いことがわかった。
論文 参考訳(メタデータ) (2022-05-06T07:47:10Z) - Matrix Completion via Non-Convex Relaxation and Adaptive Correlation
Learning [90.8576971748142]
閉形式解によって最適化できる新しいサロゲートを開発する。
そこで我々は, 上向きの相関関係を利用して, 適応的相関学習モデルを構築した。
論文 参考訳(メタデータ) (2022-03-04T08:50:50Z) - Solving weakly supervised regression problem using low-rank manifold
regularization [77.34726150561087]
我々は弱い教師付き回帰問題を解く。
weakly"の下では、いくつかのトレーニングポイントではラベルが知られ、未知のものもあれば、無作為なノイズの存在やリソースの欠如などの理由によって不確かであることが分かっています。
数値的な節ではモンテカルロモデルを用いて提案手法を人工と実のデータセットに適用した。
論文 参考訳(メタデータ) (2021-04-13T23:21:01Z) - Adversarially-Trained Nonnegative Matrix Factorization [77.34726150561087]
非負行列ファクタリゼーションの逆学習版を検討する。
我々の定式化では、攻撃者は与えられたデータ行列に有界ノルムの任意の行列を追加する。
辞書と係数行列を最適化するために, 逆学習に触発された効率的なアルゴリズムを設計する。
論文 参考訳(メタデータ) (2021-04-10T13:13:17Z) - Accelerating Ill-Conditioned Low-Rank Matrix Estimation via Scaled
Gradient Descent [34.0533596121548]
低ランク行列推定は凸問題を収束させ、信号処理、機械学習、画像科学に多くの応用を見出す。
低ランク行列の個数の観点から,ScaledGDが最良となることを示す。
我々の分析は、低ランク勾配降下に類似した一般損失にも適用できる。
論文 参考訳(メタデータ) (2020-05-18T17:17:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。