論文の概要: Robust Low-Rank Matrix Completion via a New Sparsity-Inducing
Regularizer
- arxiv url: http://arxiv.org/abs/2310.04762v1
- Date: Sat, 7 Oct 2023 09:47:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 15:47:11.789038
- Title: Robust Low-Rank Matrix Completion via a New Sparsity-Inducing
Regularizer
- Title(参考訳): 新規スポーシティ誘導正則化器によるロバスト低ランク行列補完
- Authors: Zhi-Yong Wang, Hing Cheung So and Abdelhak M. Zoubir
- Abstract要約: 本稿では,ハイブリッド常連Welsch (HOW) に新たな損失関数を提案する。
- 参考スコア(独自算出の注目度): 30.920908325825668
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a novel loss function referred to as hybrid
ordinary-Welsch (HOW) and a new sparsity-inducing regularizer associated with
HOW. We theoretically show that the regularizer is quasiconvex and that the
corresponding Moreau envelope is convex. Moreover, the closed-form solution to
its Moreau envelope, namely, the proximity operator, is derived. Compared with
nonconvex regularizers like the lp-norm with 0<p<1 that requires iterations to
find the corresponding proximity operator, the developed regularizer has a
closed-form proximity operator. We apply our regularizer to the robust matrix
completion problem, and develop an efficient algorithm based on the alternating
direction method of multipliers. The convergence of the suggested method is
analyzed and we prove that any generated accumulation point is a stationary
point. Finally, experimental results based on synthetic and real-world datasets
demonstrate that our algorithm is superior to the state-of-the-art methods in
terms of restoration performance.
- Abstract(参考訳): 本稿では,ハイブリッド・ノーマル・ウェルシュ (how) と呼ばれる新しい損失関数と,新しいスパーシティ誘導正規化器について述べる。
理論上、正則化器は準凸であり、対応するモローエンベロープは凸であることを示す。
さらに、そのモロー包絡に対する閉形式解、すなわち近接作用素を導出する。
0<p<1のlpノルムのような、対応する近接演算子を見つけるために反復を必要とする非凸正則化器と比較すると、開発された正則化器は閉形式近接演算子を持つ。
本手法をロバスト行列補完問題に適用し,乗算器の交互方向法に基づく効率的なアルゴリズムを開発した。
提案手法の収束を解析し,任意の生成した蓄積点が定常点であることを証明した。
最後に,合成および実世界のデータセットに基づく実験結果から,本アルゴリズムが復元性能の点で最先端手法よりも優れていることを証明した。
関連論文リスト
- Stochastic Zeroth-Order Optimization under Strongly Convexity and Lipschitz Hessian: Minimax Sample Complexity [59.75300530380427]
本稿では,アルゴリズムが検索対象関数の雑音評価にのみアクセス可能な2次スムーズかつ強い凸関数を最適化する問題を考察する。
本研究は, ミニマックス単純後悔率について, 一致した上界と下界を発達させることにより, 初めて厳密な評価を行ったものである。
論文 参考訳(メタデータ) (2024-06-28T02:56:22Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - Stochastic Optimization for Non-convex Problem with Inexact Hessian
Matrix, Gradient, and Function [99.31457740916815]
信頼領域(TR)と立方体を用いた適応正則化は、非常に魅力的な理論的性質を持つことが証明されている。
TR法とARC法はヘッセン関数,勾配関数,関数値の非コンパクトな計算を同時に行うことができることを示す。
論文 参考訳(メタデータ) (2023-10-18T10:29:58Z) - Low-Rank Tensor Completion via Novel Sparsity-Inducing Regularizers [30.920908325825668]
低ランクテンソル完備化問題において、l1-ノルムを緩和するため、非ランクサロゲート/正則化器が提案されている。
これらの正則化器は核ランク復元に適用され,乗算器法に基づく効率的なアルゴリズムが提案されている。
論文 参考訳(メタデータ) (2023-10-10T01:00:13Z) - Matrix Completion via Non-Convex Relaxation and Adaptive Correlation
Learning [90.8576971748142]
閉形式解によって最適化できる新しいサロゲートを開発する。
そこで我々は, 上向きの相関関係を利用して, 適応的相関学習モデルを構築した。
論文 参考訳(メタデータ) (2022-03-04T08:50:50Z) - Optimal Sample Complexity of Subgradient Descent for Amplitude Flow via
Non-Lipschitz Matrix Concentration [12.989855325491163]
我々は、実数値の$n$次元信号を、位相のない線形測定値から復元する問題を考察する。
ランダムな不連続行列値演算子の均一な濃度に基づいて, 最適なサンプル複雑性を持つ下降勾配の局所収束を確立する。
論文 参考訳(メタデータ) (2020-10-31T15:03:30Z) - A Scalable, Adaptive and Sound Nonconvex Regularizer for Low-rank Matrix
Completion [60.52730146391456]
そこで我々は,適応的かつ音質の高い"核フロベニウスノルム"と呼ばれる新しい非スケーラブルな低ランク正規化器を提案する。
特異値の計算をバイパスし、アルゴリズムによる高速な最適化を可能にする。
既存の行列学習手法では最速でありながら、最先端の回復性能が得られる。
論文 参考訳(メタデータ) (2020-08-14T18:47:58Z) - Provably Convergent Working Set Algorithm for Non-Convex Regularized
Regression [0.0]
本稿では、収束保証付き非正則正規化器のためのワーキングセットアルゴリズムを提案する。
その結果,ブロックコーディネートや勾配ソルバの完全解法と比較して高い利得を示した。
論文 参考訳(メタデータ) (2020-06-24T07:40:31Z) - Approximation Schemes for ReLU Regression [80.33702497406632]
我々はReLU回帰の根本的な問題を考察する。
目的は、未知の分布から引き出された2乗損失に対して、最も適したReLUを出力することである。
論文 参考訳(メタデータ) (2020-05-26T16:26:17Z) - Explicit Regularization of Stochastic Gradient Methods through Duality [9.131027490864938]
ランダム化された双対座標の上昇に基づくランダム化されたDykstraスタイルのアルゴリズムを提案する。
座標降下を高速化するために、補間系における既存の勾配法よりも収束特性がよい新しいアルゴリズムを得る。
論文 参考訳(メタデータ) (2020-03-30T20:44:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。