論文の概要: Global Convergence Analysis of Vanilla Gradient Descent for Asymmetric Matrix Completion
- arxiv url: http://arxiv.org/abs/2508.09685v1
- Date: Wed, 13 Aug 2025 10:23:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 20:42:00.856021
- Title: Global Convergence Analysis of Vanilla Gradient Descent for Asymmetric Matrix Completion
- Title(参考訳): 非対称マトリックス完成のためのバニラ勾配のグローバル収束解析
- Authors: Xu Zhang, Shuo Chen, Jinsheng Li, Xiangying Pang, Maoguo Gong,
- Abstract要約: 本稿では,非対称な低ランク行列補完問題について検討する。
非線形最小二乗完備関数を持つ非拘束的最適化問題として定式化することができる。
勾配降下法は通常、収束を保証するために正規化項を目的関数に組み込む。
- 参考スコア(独自算出の注目度): 21.544089013107392
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper investigates the asymmetric low-rank matrix completion problem, which can be formulated as an unconstrained non-convex optimization problem with a nonlinear least-squares objective function, and is solved via gradient descent methods. Previous gradient descent approaches typically incorporate regularization terms into the objective function to guarantee convergence. However, numerical experiments and theoretical analysis of the gradient flow both demonstrate that the elimination of regularization terms in gradient descent algorithms does not adversely affect convergence performance. By introducing the leave-one-out technique, we inductively prove that the vanilla gradient descent with spectral initialization achieves a linear convergence rate with high probability. Besides, we demonstrate that the balancing regularization term exhibits a small norm during iterations, which reveals the implicit regularization property of gradient descent. Empirical results show that our algorithm has a lower computational cost while maintaining comparable completion performance compared to other gradient descent algorithms.
- Abstract(参考訳): 本稿では、非線形最小二乗目的関数を持つ非制約非凸最適化問題として定式化できる非対称な低ランク行列完備問題について検討し、勾配降下法を用いて解法する。
従来の勾配降下法は典型的には収束を保証するために正規化項を目的関数に組み込む。
しかし、勾配流の数値実験と理論的解析は、勾配降下アルゴリズムにおける正規化項の除去が収束性能に悪影響を及ぼさないことを示した。
本研究では, スペクトル初期化によるバニラ勾配勾配が線形収束率を高い確率で達成できることを導出的に証明する。
さらに、バランス正則化項は反復の間に小さなノルムを示し、勾配降下の暗黙的な正則化特性を示す。
実験結果から,本アルゴリズムの計算コストは,他の勾配降下アルゴリズムと比較した場合に比べて低く抑えられることがわかった。
関連論文リスト
- Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - Convex and Non-convex Optimization Under Generalized Smoothness [69.69521650503431]
凸法と非最適化法の分析は、しばしばリプシッツ勾配を必要とし、この軌道による解析を制限する。
最近の研究は、非一様滑らか性条件を通した勾配設定を一般化している。
論文 参考訳(メタデータ) (2023-06-02T04:21:59Z) - Gradient descent in matrix factorization: Understanding large initialization [6.378022003282206]
このフレームワークは信号対雑音比の概念と帰納的議論に基づいている。
その結果、GDにおける暗黙的な漸進的な学習現象が明らかとなり、大きなシナリオにおけるそのパフォーマンスをより深く理解することが可能になる。
論文 参考訳(メタデータ) (2023-05-30T16:55:34Z) - Proximal Subgradient Norm Minimization of ISTA and FISTA [8.261388753972234]
反復収縮保持アルゴリズムのクラスに対する2乗近位次数ノルムは逆2乗率で収束することを示す。
また、高速反復収縮保持アルゴリズム (FISTA) のクラスに対する2乗次次数次ノルムが、逆立方レートで収束するように加速されることも示している。
論文 参考訳(メタデータ) (2022-11-03T06:50:19Z) - Stability vs Implicit Bias of Gradient Methods on Separable Data and
Beyond [33.593203156666746]
分離線形分類に適用された非正規化勾配に基づく学習手順の一般化特性に着目する。
この一般化についてさらに統一的な説明をし、実現可能性と自己有界性(self-boundedness)と呼ぶ。
これらのケースのいくつかでは、文献における既存の一般化誤差境界に対して、我々の境界は著しく改善される。
論文 参考訳(メタデータ) (2022-02-27T19:56:36Z) - Differentiable Annealed Importance Sampling and the Perils of Gradient
Noise [68.44523807580438]
Annealed importance sample (AIS) と関連するアルゴリズムは、限界推定のための非常に効果的なツールである。
差別性は、目的として限界確率を最適化する可能性を認めるため、望ましい性質である。
我々はメトロポリス・ハスティングスのステップを放棄して微分可能アルゴリズムを提案し、ミニバッチ計算をさらに解き放つ。
論文 参考訳(メタデータ) (2021-07-21T17:10:14Z) - Exact Linear Convergence Rate Analysis for Low-Rank Symmetric Matrix
Completion via Gradient Descent [22.851500417035947]
因数分解に基づく勾配降下は、因数分解行列の完備化を解くためのスケーラブルで効率的なアルゴリズムである。
勾配勾配降下は, 地球自然問題の解を推定するために, 高速収束を楽しむことを示す。
論文 参考訳(メタデータ) (2021-02-04T03:41:54Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - Towards Better Understanding of Adaptive Gradient Algorithms in
Generative Adversarial Nets [71.05306664267832]
適応アルゴリズムは勾配の歴史を用いて勾配を更新し、深層ニューラルネットワークのトレーニングにおいてユビキタスである。
本稿では,非コンケーブ最小値問題に対するOptimisticOAアルゴリズムの変種を解析する。
実験の結果,適応型GAN非適応勾配アルゴリズムは経験的に観測可能であることがわかった。
論文 参考訳(メタデータ) (2019-12-26T22:10:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。