論文の概要: Low-Tubal-Rank Tensor Recovery via Factorized Gradient Descent
- arxiv url: http://arxiv.org/abs/2401.11940v2
- Date: Sat, 3 Feb 2024 02:47:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 02:53:11.543492
- Title: Low-Tubal-Rank Tensor Recovery via Factorized Gradient Descent
- Title(参考訳): 因子化勾配降下による低指数テンソル回復
- Authors: Zhiyu Liu, Zhi Han, Yandong Tang, Xi-Le Zhao, Yao Wang
- Abstract要約: 本稿では,Burer-Monteiro法に類似した因子分解法に基づく効率的かつ効果的な低ツバルテンソル回収法を提案する。
我々は,FGDのノイズフリーおよび雑音条件下での収束を確保するために,厳密な理論的解析を行う。
提案手法は,より高速な計算速度とより小さい収束誤差の観点から,複数のシナリオにおいて優れた性能を示す。
- 参考スコア(独自算出の注目度): 22.801592340422157
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper considers the problem of recovering a tensor with an underlying
low-tubal-rank structure from a small number of corrupted linear measurements.
Traditional approaches tackling such a problem require the computation of
tensor Singular Value Decomposition (t-SVD), that is a computationally
intensive process, rendering them impractical for dealing with large-scale
tensors. Aim to address this challenge, we propose an efficient and effective
low-tubal-rank tensor recovery method based on a factorization procedure akin
to the Burer-Monteiro (BM) method. Precisely, our fundamental approach involves
decomposing a large tensor into two smaller factor tensors, followed by solving
the problem through factorized gradient descent (FGD). This strategy eliminates
the need for t-SVD computation, thereby reducing computational costs and
storage requirements. We provide rigorous theoretical analysis to ensure the
convergence of FGD under both noise-free and noisy situations. Additionally, it
is worth noting that our method does not require the precise estimation of the
tensor tubal-rank. Even in cases where the tubal-rank is slightly
overestimated, our approach continues to demonstrate robust performance. A
series of experiments have been carried out to demonstrate that, as compared to
other popular ones, our approach exhibits superior performance in multiple
scenarios, in terms of the faster computational speed and the smaller
convergence error.
- Abstract(参考訳): 本稿では, 少数の線形測定結果から, 基礎となる低ツバルランク構造を持つテンソルを復元する問題を考察する。
このような問題に取り組む従来のアプローチでは、計算集約的なプロセスであるテンソル特異値分解(t-svd)の計算が必要であり、大規模なテンソルを扱うには実用的ではない。
そこで本研究では,burer-monteiro (bm) 法に類似した因子分解法に基づく効率的かつ効率的な低指数テンソル回復法を提案する。
正確には、我々の基本的なアプローチは、大きなテンソルを2つの小さな因子テンソルに分解し、次に分解勾配降下(FGD)によって問題を解くことである。
この戦略はt-svd計算の必要性をなくし、計算コストとストレージ要件を削減する。
我々は,FGDのノイズフリーおよび雑音条件下での収束を確保するために厳密な理論的解析を行う。
さらに,本手法はテンソル管ランクの正確な推定を必要としないことに注意が必要である。
管状ランクがわずかに過大評価されている場合でも,我々の手法は頑健な性能を示し続けている。
提案手法は,他の一般的な手法と比較して,高速な計算速度とより小さい収束誤差の観点から,複数のシナリオにおいて優れた性能を示すことを示すために,一連の実験が実施されている。
関連論文リスト
- Computational and Statistical Guarantees for Tensor-on-Tensor Regression with Tensor Train Decomposition [27.29463801531576]
TTに基づくToT回帰モデルの理論的およびアルゴリズム的側面について検討する。
制約付き誤差境界に対する解を効率的に見つけるための2つのアルゴリズムを提案する。
我々はIHTとRGDの両方の線形収束速度を確立する。
論文 参考訳(メタデータ) (2024-06-10T03:51:38Z) - Scalable CP Decomposition for Tensor Learning using GPU Tensor Cores [47.87810316745786]
本研究では,エクサスケールテンソル分解を支援する圧縮型テンソル分解フレームワークを提案する。
ベースラインと比較すると、エクスカスケール・テンソルは8000倍のテンソルをサポートし、スピードアップは6.95倍である。
また,本手法を遺伝子解析とテンソル層ニューラルネットワークを含む実世界の2つの応用に適用する。
論文 参考訳(メタデータ) (2023-11-22T21:04:59Z) - An Optimization-based Deep Equilibrium Model for Hyperspectral Image
Deconvolution with Convergence Guarantees [71.57324258813675]
本稿では,ハイパースペクトル画像のデコンボリューション問題に対処する新しい手法を提案する。
新しい最適化問題を定式化し、学習可能な正規化器をニューラルネットワークの形で活用する。
導出した反復解法は、Deep Equilibriumフレームワーク内の不動点計算問題として表現される。
論文 参考訳(メタデータ) (2023-06-10T08:25:16Z) - A Novel Tensor Factorization-Based Method with Robustness to Inaccurate
Rank Estimation [9.058215418134209]
本稿では,2つの低ランク制約を持つテンソルノルムを提案する。
結果のテンソル完成モデルが不正確なランク推定による性能劣化を効果的に回避できることが理論的に証明されている。
これに基づいて、最適化アルゴリズムの各イテレーションの総コストは$mathcalO(n3log n + kn3)$から$mathcalO(n4)$に削減される。
論文 参考訳(メタデータ) (2023-05-19T06:26:18Z) - Error Analysis of Tensor-Train Cross Approximation [88.83467216606778]
我々は, テンソル全体の精度保証を行う。
結果は数値実験により検証され、高次テンソルに対するクロス近似の有用性に重要な意味を持つ可能性がある。
論文 参考訳(メタデータ) (2022-07-09T19:33:59Z) - Fast and Provable Tensor Robust Principal Component Analysis via Scaled
Gradient Descent [30.299284742925852]
本稿では、テンソルロバスト主成分分析(RPCA)に取り組む。
希少な腐敗によって汚染された観測から低ランクのテンソルを回収することを目的としている。
提案アルゴリズムは, 最先端行列やテンソルRPCAアルゴリズムよりも, より優れた, よりスケーラブルな性能を実現する。
論文 参考訳(メタデータ) (2022-06-18T04:01:32Z) - Truncated tensor Schatten p-norm based approach for spatiotemporal
traffic data imputation with complicated missing patterns [77.34726150561087]
本研究は, モード駆動繊維による3症例の欠失を含む, 4症例の欠失パターンについて紹介する。
本モデルでは, 目的関数の非性にもかかわらず, 乗算器の交互データ演算法を統合することにより, 最適解を導出する。
論文 参考訳(メタデータ) (2022-05-19T08:37:56Z) - MTC: Multiresolution Tensor Completion from Partial and Coarse
Observations [49.931849672492305]
既存の完備化の定式化は、主に1つのテンソルからの部分的な観測に依存する。
この問題を解決するために,効率的なマルチレゾリューション・コンプリート・モデル(MTC)を提案する。
論文 参考訳(メタデータ) (2021-06-14T02:20:03Z) - Scaling and Scalability: Provable Nonconvex Low-Rank Tensor Estimation
from Incomplete Measurements [30.395874385570007]
基本的な課題は、高度に不完全な測定からテンソルを忠実に回収することである。
タッカー分解におけるテンソル因子を直接回復するアルゴリズムを開発した。
2つの正準問題に対する基底真理テンソルの線形独立率で確実に収束することを示す。
論文 参考訳(メタデータ) (2021-04-29T17:44:49Z) - Robust Low-tubal-rank Tensor Completion based on Tensor Factorization
and Maximum Correntopy Criterion [12.02023514105999]
そこで我々は,コレントロピーを誤差尺度として用いて,外周効果を緩和する,低ツバルランクテンソル完備化のための新たな目的関数を提案する。
合成データと実データの両方を用いて,提案アルゴリズムの頑健かつ優れた性能を示す。
論文 参考訳(メタデータ) (2020-10-22T13:56:55Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。