論文の概要: Euclidean-Norm-Induced Schatten-p Quasi-Norm Regularization for Low-Rank
Tensor Completion and Tensor Robust Principal Component Analysis
- arxiv url: http://arxiv.org/abs/2012.03436v5
- Date: Wed, 18 Oct 2023 04:10:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-19 21:22:06.454464
- Title: Euclidean-Norm-Induced Schatten-p Quasi-Norm Regularization for Low-Rank
Tensor Completion and Tensor Robust Principal Component Analysis
- Title(参考訳): ユークリッドノルムによる低ランクテンソル完備化とテンソルロバスト主成分分析のための準ノルム正則化
- Authors: Jicong Fan, Lijun Ding, Chengrun Yang, Zhao Zhang, Madeleine Udell
- Abstract要約: 核ノルムとSchatten-$p$ quasi-normは、低ランク行列回復において一般的なランクプロキシである。
テンソルのCP成分ベクトルのユークリッドノルムに基づくテンソル階数正規化器の新しいクラスを提案する。
これらの正則化子はテンソル・シャッテン-$p$準ノルムの単調変換であることを示す。
- 参考スコア(独自算出の注目度): 43.045993843242414
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The nuclear norm and Schatten-$p$ quasi-norm are popular rank proxies in
low-rank matrix recovery. However, computing the nuclear norm or Schatten-$p$
quasi-norm of a tensor is hard in both theory and practice, hindering their
application to low-rank tensor completion (LRTC) and tensor robust principal
component analysis (TRPCA). In this paper, we propose a new class of tensor
rank regularizers based on the Euclidean norms of the CP component vectors of a
tensor and show that these regularizers are monotonic transformations of tensor
Schatten-$p$ quasi-norm. This connection enables us to minimize the
Schatten-$p$ quasi-norm in LRTC and TRPCA implicitly via the component vectors.
The method scales to big tensors and provides an arbitrarily sharper rank proxy
for low-rank tensor recovery compared to the nuclear norm. On the other hand,
we study the generalization abilities of LRTC with the Schatten-$p$ quasi-norm
regularizer and LRTC with the proposed regularizers. The theorems show that a
relatively sharper regularizer leads to a tighter error bound, which is
consistent with our numerical results. Particularly, we prove that for LRTC
with Schatten-$p$ quasi-norm regularizer on $d$-order tensors, $p=1/d$ is
always better than any $p>1/d$ in terms of the generalization ability. We also
provide a recovery error bound to verify the usefulness of small $p$ in the
Schatten-$p$ quasi-norm for TRPCA. Numerical results on synthetic data and real
data demonstrate the effectiveness of the regularization methods and theorems.
- Abstract(参考訳): 核ノルムとSchatten-$p$ quasi-normは低ランク行列回復において一般的なランクプロキシである。
しかし、テンソルの核ノルムやSchatten-$p$準ノルムの計算は理論と実践の両方において困難であり、ローランクテンソル完備化(LRTC)やテンソル頑健成分分析(TRPCA)への応用を妨げる。
本稿では、テンソルのCP成分ベクトルのユークリッドノルムに基づくテンソル階数正規化器の新しいクラスを提案し、これらの正規化器がテンソルシャッテン=$p$準ノルムの単調変換であることを示す。
この接続により、LRTC と TRPCA における Schatten-$p$ quasi-norm をコンポーネントベクトルを通して暗黙的に最小化できる。
この方法はビッグテンソルにスケールし、核標準よりも低ランクテンソル回復のための任意にシャープなランクプロキシを提供する。
一方、Schatten-$p$ quasi-norm regularizer を用いたLRTCの一般化能力と、提案した正則化器を用いたLRTCについて検討する。
定理は、よりシャープな正則化器がより厳密な誤差境界をもたらすことを示しているが、これは我々の数値結果と一致している。
特に、d$-オーダーテンソル上のschatten-$p$準ノルム正規化子を持つ lrtc に対して、一般化能力の観点からは、$p=1/d$ は任意の $p>1/d$ よりも常に良いことを証明する。
また、TRPCA に対する Schatten-$p$ quasi-norm の小さい$p$ の有用性を検証するための回復誤差も提供する。
合成データと実データに関する数値的な結果は正規化法と定理の有効性を示す。
関連論文リスト
- Convergence Rate Analysis of LION [54.28350823319057]
LION は、勾配カルシュ=クーン=T (sqrtdK-)$で測定された $cal(sqrtdK-)$ の反復を収束する。
従来のSGDと比較して,LIONは損失が小さく,性能も高いことを示す。
論文 参考訳(メタデータ) (2024-11-12T11:30:53Z) - Robust Low-rank Tensor Train Recovery [27.29463801531576]
train (TT) 分解は、小さな次元の行列を$O(N)$を使用する$N$のテンソルを表す。
そのコンパクトな表現のため、TT分解は信号処理や量子情報に広く応用されている。
論文 参考訳(メタデータ) (2024-10-19T21:59:50Z) - Tensor cumulants for statistical inference on invariant distributions [49.80012009682584]
我々は,PCAが信号の大きさの臨界値で計算的に困難になることを示す。
我々は、与えられた次数の不変量に対して明示的でほぼ直交的な基底を与える新しい対象の集合を定義する。
また、異なるアンサンブルを区別する新しい問題も分析できます。
論文 参考訳(メタデータ) (2024-04-29T14:33:24Z) - Faster Robust Tensor Power Method for Arbitrary Order [15.090593955414137]
emphTensor Power Method (TPM) はテンソルの分解において広く使われている手法の1つである。
我々はスケッチ法を適用し、$widetildeO(np-1)$の出力$p$と dimension$n$tensorで実行時間を達成することができる。
論文 参考訳(メタデータ) (2023-06-01T07:12:00Z) - A Novel Tensor Factorization-Based Method with Robustness to Inaccurate
Rank Estimation [9.058215418134209]
本稿では,2つの低ランク制約を持つテンソルノルムを提案する。
結果のテンソル完成モデルが不正確なランク推定による性能劣化を効果的に回避できることが理論的に証明されている。
これに基づいて、最適化アルゴリズムの各イテレーションの総コストは$mathcalO(n3log n + kn3)$から$mathcalO(n4)$に削減される。
論文 参考訳(メタデータ) (2023-05-19T06:26:18Z) - Decomposable Sparse Tensor on Tensor Regression [1.370633147306388]
テンソル回帰のスパースローランクテンソルを考えると、予測子 $mathcalX$ とレスポンス $mathcalY$ はどちらも高次元テンソルである。
本稿では,契約部と生成部から構成されるステージワイド探索に基づく高速解を提案する。
論文 参考訳(メタデータ) (2022-12-09T18:16:41Z) - Average-Case Complexity of Tensor Decomposition for Low-Degree
Polynomials [93.59919600451487]
多くの統計的推論タスクにおいて「統計計算ギャップ」が発生する。
1つの成分が他の成分よりもわずかに大きいランダムオーダー3分解モデルを考える。
テンソルエントリは$ll n3/2$のとき最大成分を正確に推定できるが、$rgg n3/2$のとき失敗する。
論文 参考訳(メタデータ) (2022-11-10T00:40:37Z) - Near-Linear Time and Fixed-Parameter Tractable Algorithms for Tensor
Decompositions [51.19236668224547]
テンソルの低階近似について検討し,テンソルトレインとタッカー分解に着目した。
テンソル列車の分解には、小さなビクリテリアランクを持つビクリテリア$(1 + eps)$-approximationアルゴリズムと、O(q cdot nnz(A))$ランニングタイムを与える。
さらに、任意のグラフを持つテンソルネットワークにアルゴリズムを拡張します。
論文 参考訳(メタデータ) (2022-07-15T11:55:09Z) - Beyond Lazy Training for Over-parameterized Tensor Decomposition [69.4699995828506]
過度なパラメータ化対象の勾配勾配は遅延学習体制を超え、データ中の特定の低ランク構造を利用する可能性があることを示す。
以上の結果から,過パラメータ化対象の勾配勾配は遅延学習体制を超え,データ中の特定の低ランク構造を利用する可能性が示唆された。
論文 参考訳(メタデータ) (2020-10-22T00:32:12Z) - A Sharp Blockwise Tensor Perturbation Bound for Orthogonal Iteration [23.308822706415867]
高次直交反復(HOOI)に対するブロックワイドテンソル摂動境界を確立する。
モード-$k$特異部分空間推定の上限は、摂動と信号強度のブロックワイズ誤差を特徴とする量に一側収束することを示す。
一つの反復しか持たない一段階 HOOI がテンソル再構成の点でも最適であり,計算コストの低減に有効であることを示す。
論文 参考訳(メタデータ) (2020-08-06T03:01:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。