論文の概要: Matrix Completion via Non-Convex Relaxation and Adaptive Correlation
Learning
- arxiv url: http://arxiv.org/abs/2203.02189v1
- Date: Fri, 4 Mar 2022 08:50:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-07 15:51:13.510335
- Title: Matrix Completion via Non-Convex Relaxation and Adaptive Correlation
Learning
- Title(参考訳): 非凸緩和と適応相関学習による行列完成
- Authors: Xuelong Li, Hongyuan Zhang, Rui Zhang
- Abstract要約: 閉形式解によって最適化できる新しいサロゲートを開発する。
そこで我々は, 上向きの相関関係を利用して, 適応的相関学習モデルを構築した。
- 参考スコア(独自算出の注目度): 90.8576971748142
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The existing matrix completion methods focus on optimizing the relaxation of
rank function such as nuclear norm, Schatten-p norm, etc. They usually need
many iterations to converge. Moreover, only the low-rank property of matrices
is utilized in most existing models and several methods that incorporate other
knowledge are quite time-consuming in practice. To address these issues, we
propose a novel non-convex surrogate that can be optimized by closed-form
solutions, such that it empirically converges within dozens of iterations.
Besides, the optimization is parameter-free and the convergence is proved.
Compared with the relaxation of rank, the surrogate is motivated by optimizing
an upper-bound of rank. We theoretically validate that it is equivalent to the
existing matrix completion models. Besides the low-rank assumption, we intend
to exploit the column-wise correlation for matrix completion, and thus an
adaptive correlation learning, which is scaling-invariant, is developed. More
importantly, after incorporating the correlation learning, the model can be
still solved by closed-form solutions such that it still converges fast.
Experiments show the effectiveness of the non-convex surrogate and adaptive
correlation learning.
- Abstract(参考訳): 既存の行列補完法は、核ノルムやシャッテン-pノルムなどのランク関数の緩和を最適化することに焦点を当てている。
通常、収束するには多くのイテレーションが必要です。
さらに、行列の低ランク性のみが既存のモデルで使われており、他の知識を組み込んだいくつかの手法は、実際にはかなり時間がかかる。
これらの問題に対処するため、閉形式解によって最適化できる新しい非凸サロゲートを提案し、数十回の反復で経験的に収束する。
さらに、最適化はパラメータフリーであり、収束が証明される。
位階の緩和と比べ、上位の階階を最適化することでシュロゲートを動機付ける。
理論的には、既存の行列完備モデルと等価であることを示す。
低ランクの仮定の他に、行列の完備化に列回りの相関を活用し、スケーリング不変である適応相関学習を開発した。
さらに重要なことに、相関学習を組み込んだ後、モデルがまだ高速に収束するように閉形式解によって解くことができる。
実験は非凸代理と適応相関学習の有効性を示す。
関連論文リスト
- Online Learning Guided Quasi-Newton Methods with Global Non-Asymptotic Convergence [20.766358513158206]
双対性ギャップの観点から、大域収束率を$O(min1/k,sqrtd/k1.25)$とする。
これらの結果は、外勾配法よりも準ニュートン法の証明可能な利点を示す最初の大域収束結果である。
論文 参考訳(メタデータ) (2024-10-03T16:08:16Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - Neural incomplete factorization: learning preconditioners for the conjugate gradient method [2.899792823251184]
我々は、効率的なプレコンディショナーの生成を加速するためのデータ駆動型アプローチを開発する。
一般的に手動のプリコンディショナーをグラフニューラルネットワークの出力に置き換える。
本手法は, 行列の不完全分解を発生させ, 神経不完全分解(NeuralIF)と呼ばれる。
論文 参考訳(メタデータ) (2023-05-25T11:45:46Z) - Learning Graphical Factor Models with Riemannian Optimization [70.13748170371889]
本稿では,低ランク構造制約下でのグラフ学習のためのフレキシブルなアルゴリズムフレームワークを提案する。
この問題は楕円分布のペナルティ化された最大推定値として表される。
楕円モデルによく適合する正定行列と定ランクの正半定行列のジオメトリを利用する。
論文 参考訳(メタデータ) (2022-10-21T13:19:45Z) - Low-rank Tensor Learning with Nonconvex Overlapped Nuclear Norm
Regularization [44.54772242784423]
低ランク学習行列に対する効率的な非正規化アルゴリズムを開発した。
提案アルゴリズムは、高価な折り畳み/折り畳み問題を回避することができる。
実験の結果,提案アルゴリズムは既存の状態よりも効率的で空間が広いことがわかった。
論文 参考訳(メタデータ) (2022-05-06T07:47:10Z) - Solving weakly supervised regression problem using low-rank manifold
regularization [77.34726150561087]
我々は弱い教師付き回帰問題を解く。
weakly"の下では、いくつかのトレーニングポイントではラベルが知られ、未知のものもあれば、無作為なノイズの存在やリソースの欠如などの理由によって不確かであることが分かっています。
数値的な節ではモンテカルロモデルを用いて提案手法を人工と実のデータセットに適用した。
論文 参考訳(メタデータ) (2021-04-13T23:21:01Z) - A Scalable, Adaptive and Sound Nonconvex Regularizer for Low-rank Matrix
Completion [60.52730146391456]
そこで我々は,適応的かつ音質の高い"核フロベニウスノルム"と呼ばれる新しい非スケーラブルな低ランク正規化器を提案する。
特異値の計算をバイパスし、アルゴリズムによる高速な最適化を可能にする。
既存の行列学習手法では最速でありながら、最先端の回復性能が得られる。
論文 参考訳(メタデータ) (2020-08-14T18:47:58Z) - Global Optimization of Gaussian processes [52.77024349608834]
少数のデータポイントで学習したガウス過程を訓練した空間定式化を提案する。
このアプローチはまた、より小さく、計算的にもより安価なサブソルバを低いバウンディングに導く。
提案手法の順序の順序による時間収束を,総じて低減する。
論文 参考訳(メタデータ) (2020-05-21T20:59:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。