論文の概要: An Accelerated Alternating Partial Bregman Algorithm for ReLU-based Matrix Decomposition
- arxiv url: http://arxiv.org/abs/2503.02386v1
- Date: Tue, 04 Mar 2025 08:20:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:16:21.002268
- Title: An Accelerated Alternating Partial Bregman Algorithm for ReLU-based Matrix Decomposition
- Title(参考訳): ReLU基行列分解のための高速化部分ブラグマンアルゴリズム
- Authors: Qingsong Wang, Yunfei Qu, Chunfeng Cui, Deren Han,
- Abstract要約: 本稿では,非負行列上に補正されたスパース低ランク特性について検討する。
本稿では,クラスタリングと圧縮タスクに有用な構造を取り入れた新しい正規化項を提案する。
我々は、任意の$Lge 1$に対して常に持つ$L$-smoothプロパティを維持しながら、対応する閉形式解を導出する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Despite the remarkable success of low-rank estimation in data mining, its effectiveness diminishes when applied to data that inherently lacks low-rank structure. To address this limitation, in this paper, we focus on non-negative sparse matrices and aim to investigate the intrinsic low-rank characteristics of the rectified linear unit (ReLU) activation function. We first propose a novel nonlinear matrix decomposition framework incorporating a comprehensive regularization term designed to simultaneously promote useful structures in clustering and compression tasks, such as low-rankness, sparsity, and non-negativity in the resulting factors. This formulation presents significant computational challenges due to its multi-block structure, non-convexity, non-smoothness, and the absence of global gradient Lipschitz continuity. To address these challenges, we develop an accelerated alternating partial Bregman proximal gradient method (AAPB), whose distinctive feature lies in its capability to enable simultaneous updates of multiple variables. Under mild and theoretically justified assumptions, we establish both sublinear and global convergence properties of the proposed algorithm. Through careful selection of kernel generating distances tailored to various regularization terms, we derive corresponding closed-form solutions while maintaining the $L$-smooth adaptable property always holds for any $L\ge 1$. Numerical experiments, on graph regularized clustering and sparse NMF basis compression confirm the effectiveness of our model and algorithm.
- Abstract(参考訳): データマイニングにおける低ランク推定の顕著な成功にもかかわらず、その有効性は、本質的に低ランク構造を欠くデータに適用した場合に低下する。
本稿では,非負のスパース行列に着目し,正規化線形単位(ReLU)活性化関数の固有低ランク特性について検討する。
まず, クラスタリングおよび圧縮タスクにおいて, 低ランク性, 疎性, 非負性などの有用な構造を同時に促進するために, 包括的正規化項を組み込んだ非線形行列分解フレームワークを提案する。
この定式化は、その多重ブロック構造、非凸性、非滑らか性、および大域勾配リプシッツ連続性の欠如による重要な計算問題を示す。
これらの課題に対処するために,複数の変数の同時更新を可能にする能力に特有な特徴を有する部分的ブレグマン近位勾配法 (AAPB) を開発した。
軽度かつ理論的に正当化された仮定の下で、提案アルゴリズムのサブ線形および大域収束特性を確立する。
様々な正則化項に合わせたカーネル生成距離を慎重に選択することで、対応する閉形式解を導出し、任意の$L\ge 1$に対して常に$L$-smooth適応性を維持する。
グラフ正規化クラスタリングとスパースNMFベース圧縮に関する数値実験により,我々のモデルとアルゴリズムの有効性が確認された。
関連論文リスト
- Efficient Algorithms for Regularized Nonnegative Scale-invariant Low-rank Approximation Models [3.6034001987137767]
低ランク近似モデルにおける正規化関数の役割について検討する。
本稿では,$ell_pp$-regularized non- negative low-rank approximation を扱える汎用なMajorization-Minimization (MM)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-27T12:49:14Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - An Accelerated Block Proximal Framework with Adaptive Momentum for
Nonconvex and Nonsmooth Optimization [2.323238724742687]
非平滑および非平滑最適化のための適応モーメント(ABPL$+$)を有する加速ブロック近位線形フレームワークを提案する。
いくつかのアルゴリズムでは外挿ステップの潜在的な原因を解析し、比較プロセスの強化によってこの問題を解消する。
我々はアルゴリズムを勾配ステップと線形補間ステップの更新を含む任意のシナリオに拡張する。
論文 参考訳(メタデータ) (2023-08-23T13:32:31Z) - An inexact LPA for DC composite optimization and application to matrix completions with outliers [5.746154410100363]
本稿では,複合最適化問題のクラスについて述べる。
合成構造を利用することで、ポテンシャル関数が反復列において1/2$のKL特性を持つ条件を与える。
論文 参考訳(メタデータ) (2023-03-29T16:15:34Z) - An Accelerated Doubly Stochastic Gradient Method with Faster Explicit
Model Identification [97.28167655721766]
本稿では、分散正規化損失最小化問題に対する2倍加速勾配降下法(ADSGD)を提案する。
まず、ADSGDが線形収束率を達成でき、全体的な計算複雑性を低減できることを示す。
論文 参考訳(メタデータ) (2022-08-11T22:27:22Z) - Solving weakly supervised regression problem using low-rank manifold
regularization [77.34726150561087]
我々は弱い教師付き回帰問題を解く。
weakly"の下では、いくつかのトレーニングポイントではラベルが知られ、未知のものもあれば、無作為なノイズの存在やリソースの欠如などの理由によって不確かであることが分かっています。
数値的な節ではモンテカルロモデルを用いて提案手法を人工と実のデータセットに適用した。
論文 参考訳(メタデータ) (2021-04-13T23:21:01Z) - Sparse PCA via $l_{2,p}$-Norm Regularization for Unsupervised Feature
Selection [138.97647716793333]
再構成誤差を$l_2,p$ノルム正規化と組み合わせることで,単純かつ効率的な特徴選択手法を提案する。
提案する非教師付きモデルを解くための効率的な最適化アルゴリズムを提案し,アルゴリズムの収束と計算の複雑さを理論的に解析する。
論文 参考訳(メタデータ) (2020-12-29T04:08:38Z) - On the Stability Properties and the Optimization Landscape of Training
Problems with Squared Loss for Neural Networks and General Nonlinear Conic
Approximation Schemes [0.0]
ニューラルネットワークと一般的な非線形円錐近似スキームの2乗損失を伴うトレーニング問題の最適化景観と安定性特性について検討する。
これらの不安定性に寄与する同じ効果が、サドル点や急激な局所ミニマの出現の原因でもあることを証明している。
論文 参考訳(メタデータ) (2020-11-06T11:34:59Z) - Efficient Methods for Structured Nonconvex-Nonconcave Min-Max
Optimization [98.0595480384208]
定常点に収束する一般化外空間を提案する。
このアルゴリズムは一般の$p$ノルド空間だけでなく、一般の$p$次元ベクトル空間にも適用される。
論文 参考訳(メタデータ) (2020-10-31T21:35:42Z) - Low-rank matrix recovery with non-quadratic loss: projected gradient
method and regularity projection oracle [23.84884127542249]
低ランク行列回復の既往の結果は2次損失に大きく影響した。
非二次的損失を伴う証明可能な低ランク回復における重要な要素が正規性予測であることを示す。
論文 参考訳(メタデータ) (2020-08-31T17:56:04Z) - Multi-Objective Matrix Normalization for Fine-grained Visual Recognition [153.49014114484424]
双線形プールは細粒度視覚認識(FGVC)において大きな成功を収める
近年,行列パワー正規化は双線形特徴量において2次情報を安定化させることができることが示されている。
両線形表現を同時に正規化できる効率的な多目的行列正規化法(MOMN)を提案する。
論文 参考訳(メタデータ) (2020-03-30T08:40:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。