論文の概要: Efficient Low-Tubal-Rank Tensor Estimation via Alternating Preconditioned Gradient Descent
- arxiv url: http://arxiv.org/abs/2512.07490v2
- Date: Mon, 15 Dec 2025 09:28:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 15:10:29.131808
- Title: Efficient Low-Tubal-Rank Tensor Estimation via Alternating Preconditioned Gradient Descent
- Title(参考訳): 交互プレコンディショニングによる低気圧テンソルの効率的な評価
- Authors: Zhiyu Liu, Zhi Han, Yandong Tang, Jun Fan, Yao Wang,
- Abstract要約: 低ツバルランクテンソル推定は、高次元信号処理、機械学習、画像科学にまたがる幅広い応用の基本的な課題である。
近年のアプローチでは、テンソルを2つの小さな因子テンソルに分解し、勾配降下による問題を解くことでこの問題に対処している。
オーバーパラメータ化設定における収束を高速化する代用プレコンディショニング・グラディエント・ディフレクション(APGD)アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 16.904277250824055
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The problem of low-tubal-rank tensor estimation is a fundamental task with wide applications across high-dimensional signal processing, machine learning, and image science. Traditional approaches tackle such a problem by performing tensor singular value decomposition, which is computationally expensive and becomes infeasible for large-scale tensors. Recent approaches address this issue by factorizing the tensor into two smaller factor tensors and solving the resulting problem using gradient descent. However, this kind of approach requires an accurate estimate of the tensor rank, and when the rank is overestimated, the convergence of gradient descent and its variants slows down significantly or even diverges. To address this problem, we propose an Alternating Preconditioned Gradient Descent (APGD) algorithm, which accelerates convergence in the over-parameterized setting by adding a preconditioning term to the original gradient and updating these two factors alternately. Based on certain geometric assumptions on the objective function, we establish linear convergence guarantees for more general low-tubal-rank tensor estimation problems. Then we further analyze the specific cases of low-tubal-rank tensor factorization and low-tubal-rank tensor recovery. Our theoretical results show that APGD achieves linear convergence even under over-parameterization, and the convergence rate is independent of the tensor condition number. Extensive simulations on synthetic data are carried out to validate our theoretical assertions.
- Abstract(参考訳): 低ツバルランクテンソル推定の問題は、高次元信号処理、機械学習、画像科学にまたがる幅広い応用のための基本的な課題である。
従来の手法はテンソル特異値分解(英語版)を行うことでそのような問題に対処するが、これは計算コストが高く、大規模テンソルでは不可能となる。
近年のアプローチでは、テンソルを2つの小さな因子テンソルに分解し、勾配降下による問題を解くことでこの問題に対処している。
しかし、この種のアプローチではテンソルランクの正確な推定が必要であり、ランクが過大評価されると、勾配勾配の収束とその変分は著しく遅くなる。
この問題に対処するため,元の勾配に条件付き項を追加し,これら2つの因子を交互に更新することにより,過パラメータ設定における収束を加速する代用事前条件付き勾配 Descent (APGD) アルゴリズムを提案する。
目的関数に関する幾何的な仮定に基づいて、より一般的な低次テンソル推定問題に対する線形収束保証を確立する。
さらに、低次テンソル分解と低次テンソル回復の特定の事例を分析する。
その結果, APGD は過パラメータ化下においても線形収束を達成でき, 収束速度はテンソル条件数に依存しないことがわかった。
理論的なアサーションを検証するため, 合成データの大規模なシミュレーションを行った。
関連論文リスト
- Improved Convergence in Parameter-Agnostic Error Feedback through Momentum [49.163769734936295]
本研究では、EFと正規化更新、様々な運動量変動、パラメータに依存しない時変ステップサイズを組み合わせた正規化エラーフィードバックアルゴリズムについて検討する。
我々の結果は、ステップサイズと小さなミニバッチの減少に繋がる。
論文 参考訳(メタデータ) (2025-11-18T13:47:08Z) - Score-Based Model for Low-Rank Tensor Recovery [49.158601255093416]
低ランクテンソル分解(TD)は、マルチウェイデータ解析に有効なフレームワークを提供する。
従来のTD法は、CPやタッカー分解のような事前定義された構造的仮定に依存している。
本稿では,事前定義された構造的仮定や分布的仮定の必要性を排除したスコアベースモデルを提案する。
論文 参考訳(メタデータ) (2025-06-27T15:05:37Z) - Low-Rank Tensor Recovery via Variational Schatten-p Quasi-Norm and Jacobian Regularization [49.85875869048434]
暗黙的神経表現のためのニューラルネットワークによりパラメータ化されたCPベースの低ランクテンソル関数を提案する。
本研究では、スペーサーCP分解を実現するために、冗長なランク1成分に変分Schatten-p quasi-normを導入する。
滑らか性のために、ヤコビアンとハッチンソンのトレース推定器のスペクトルノルムに基づく正規化項を提案する。
論文 参考訳(メタデータ) (2025-06-27T11:23:10Z) - A Scalable Factorization Approach for High-Order Structured Tensor Recovery [30.876260188209105]
分解は、非常に小さな次元の約$N$因子を使って$N$のテンソルを表すが、パラメータの数を著しく減少させる。
これらの問題に対する計算的メモリ効率のアプローチは、局所アルゴリズムを用いた因子を直接的に最適化することである。
様々なテンソル分解問題を解くための因子分解の統一的枠組みを提案する。
論文 参考訳(メタデータ) (2025-06-19T05:07:07Z) - Low-Tubal-Rank Tensor Recovery via Factorized Gradient Descent [21.51873526389341]
本稿では,Burer-Monteiro法に類似した因子分解法に基づく効率的かつ効果的な低ツバルテンソル回収法を提案する。
我々は,FGDのノイズフリーおよび雑音条件下での収束を確保するために,厳密な理論的解析を行う。
提案手法は,より高速な計算速度とより小さい収束誤差の観点から,複数のシナリオにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2024-01-22T13:30:11Z) - Provably Accelerating Ill-Conditioned Low-rank Estimation via Scaled
Gradient Descent, Even with Overparameterization [48.65416821017865]
この章では、スケールドグラデーション(ScaledGD)と呼ばれる新しいアルゴリズムアプローチを紹介します。
低ランク物体の条件数に依存しない定数速度で直線的に収束する。
様々なタスクに対して、勾配降下の低い摂動コストを維持できる。
論文 参考訳(メタデータ) (2023-10-09T21:16:57Z) - Error Analysis of Tensor-Train Cross Approximation [88.83467216606778]
我々は, テンソル全体の精度保証を行う。
結果は数値実験により検証され、高次テンソルに対するクロス近似の有用性に重要な意味を持つ可能性がある。
論文 参考訳(メタデータ) (2022-07-09T19:33:59Z) - Scaling and Scalability: Provable Nonconvex Low-Rank Tensor Estimation
from Incomplete Measurements [30.395874385570007]
基本的な課題は、高度に不完全な測定からテンソルを忠実に回収することである。
タッカー分解におけるテンソル因子を直接回復するアルゴリズムを開発した。
2つの正準問題に対する基底真理テンソルの線形独立率で確実に収束することを示す。
論文 参考訳(メタデータ) (2021-04-29T17:44:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。