論文の概要: Low-Rank Tensor Recovery with Euclidean-Norm-Induced Schatten-p
Quasi-Norm Regularization
- arxiv url: http://arxiv.org/abs/2012.03436v2
- Date: Thu, 21 Jan 2021 04:42:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 21:50:04.143806
- Title: Low-Rank Tensor Recovery with Euclidean-Norm-Induced Schatten-p
Quasi-Norm Regularization
- Title(参考訳): Euclidean-Norm-induced Schatten-p Quasi-Norm regularization による低ランクテンソル回復
- Authors: Jicong Fan, Lijun Ding, Chengrun Yang, Madeleine Udell
- Abstract要約: テンソルの核ノルムとschatten-$p$準ノルムは、低ランク行列の回復における一般的なランクプロキシである。
テンソルのCP成分ベクトルのユークリッドノルムに基づく新しいランク正規化器のクラスを提案する。
これらの正則化子はテンソル・シャッテン-$p$準ノルムの単調変換であることを示す。
- 参考スコア(独自算出の注目度): 38.59678867132695
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The nuclear norm and Schatten-$p$ quasi-norm of a matrix are popular rank
proxies in low-rank matrix recovery. Unfortunately, computing the nuclear norm
or Schatten-$p$ quasi-norm of a tensor is NP-hard, which is a pity for low-rank
tensor completion (LRTC) and tensor robust principal component analysis
(TRPCA). In this paper, we propose a new class of rank regularizers based on
the Euclidean norms of the CP component vectors of a tensor and show that these
regularizers are monotonic transformations of tensor Schatten-$p$ quasi-norm.
This connection enables us to minimize the Schatten-$p$ quasi-norm in LRTC and
TRPCA implicitly. The methods do not use the singular value decomposition and
hence scale to big tensors. Moreover, the methods are not sensitive to the
choice of initial rank and provide an arbitrarily sharper rank proxy for
low-rank tensor recovery compared to nuclear norm. We provide theoretical
guarantees in terms of recovery error for LRTC and TRPCA, which show relatively
smaller $p$ of Schatten-$p$ quasi-norm leads to tighter error bounds.
Experiments using LRTC and TRPCA on synthetic data and natural images verify
the effectiveness and superiority of our methods compared to baseline methods.
- Abstract(参考訳): 行列の核ノルムとSchatten-$p$準ノルムは、低ランク行列回復において一般的な階数プロキシである。
残念なことに、テンソルの核ノルムやSchatten-$p$準ノルムの計算はNPハードであり、ローランクテンソル完備化(LRTC)とテンソルロバストな主成分分析(TRPCA)の哀れみである。
本論文では、テンソルのCP成分ベクトルのユークリッドノルムに基づく新しい階数正規化器のクラスを提案し、これらの正規化器がテンソルシャッテン-$p$準ノルムの単調変換であることを示す。
この接続により、LRTC と TRPCA における Schatten-$p$ quasi-norm を暗黙的に最小化できる。
この方法は特異値分解を使わず、従って大きなテンソルにスケールする。
さらに、これらの手法は初期ランクの選択に敏感ではなく、核ノルムと比較して低ランクテンソルリカバリのための任意にシャープなランクプロキシを提供する。
LRTC と TRPCA の回復誤差について理論的に保証し、Schatten-$p$ 準ノルムの相対的に小さい値が誤差境界を狭くすることを示す。
合成データと自然画像に対するLRTCとTRPCAを用いた実験により,本手法の有効性と優位性が確認された。
関連論文リスト
- Convergence Rate Analysis of LION [54.28350823319057]
LION は、勾配カルシュ=クーン=T (sqrtdK-)$で測定された $cal(sqrtdK-)$ の反復を収束する。
従来のSGDと比較して,LIONは損失が小さく,性能も高いことを示す。
論文 参考訳(メタデータ) (2024-11-12T11:30:53Z) - Robust Low-rank Tensor Train Recovery [27.29463801531576]
train (TT) 分解は、小さな次元の行列を$O(N)$を使用する$N$のテンソルを表す。
そのコンパクトな表現のため、TT分解は信号処理や量子情報に広く応用されている。
論文 参考訳(メタデータ) (2024-10-19T21:59:50Z) - Tensor cumulants for statistical inference on invariant distributions [49.80012009682584]
我々は,PCAが信号の大きさの臨界値で計算的に困難になることを示す。
我々は、与えられた次数の不変量に対して明示的でほぼ直交的な基底を与える新しい対象の集合を定義する。
また、異なるアンサンブルを区別する新しい問題も分析できます。
論文 参考訳(メタデータ) (2024-04-29T14:33:24Z) - Faster Robust Tensor Power Method for Arbitrary Order [15.090593955414137]
emphTensor Power Method (TPM) はテンソルの分解において広く使われている手法の1つである。
我々はスケッチ法を適用し、$widetildeO(np-1)$の出力$p$と dimension$n$tensorで実行時間を達成することができる。
論文 参考訳(メタデータ) (2023-06-01T07:12:00Z) - A Novel Tensor Factorization-Based Method with Robustness to Inaccurate
Rank Estimation [9.058215418134209]
本稿では,2つの低ランク制約を持つテンソルノルムを提案する。
結果のテンソル完成モデルが不正確なランク推定による性能劣化を効果的に回避できることが理論的に証明されている。
これに基づいて、最適化アルゴリズムの各イテレーションの総コストは$mathcalO(n3log n + kn3)$から$mathcalO(n4)$に削減される。
論文 参考訳(メタデータ) (2023-05-19T06:26:18Z) - Decomposable Sparse Tensor on Tensor Regression [1.370633147306388]
テンソル回帰のスパースローランクテンソルを考えると、予測子 $mathcalX$ とレスポンス $mathcalY$ はどちらも高次元テンソルである。
本稿では,契約部と生成部から構成されるステージワイド探索に基づく高速解を提案する。
論文 参考訳(メタデータ) (2022-12-09T18:16:41Z) - Average-Case Complexity of Tensor Decomposition for Low-Degree
Polynomials [93.59919600451487]
多くの統計的推論タスクにおいて「統計計算ギャップ」が発生する。
1つの成分が他の成分よりもわずかに大きいランダムオーダー3分解モデルを考える。
テンソルエントリは$ll n3/2$のとき最大成分を正確に推定できるが、$rgg n3/2$のとき失敗する。
論文 参考訳(メタデータ) (2022-11-10T00:40:37Z) - Near-Linear Time and Fixed-Parameter Tractable Algorithms for Tensor
Decompositions [51.19236668224547]
テンソルの低階近似について検討し,テンソルトレインとタッカー分解に着目した。
テンソル列車の分解には、小さなビクリテリアランクを持つビクリテリア$(1 + eps)$-approximationアルゴリズムと、O(q cdot nnz(A))$ランニングタイムを与える。
さらに、任意のグラフを持つテンソルネットワークにアルゴリズムを拡張します。
論文 参考訳(メタデータ) (2022-07-15T11:55:09Z) - Beyond Lazy Training for Over-parameterized Tensor Decomposition [69.4699995828506]
過度なパラメータ化対象の勾配勾配は遅延学習体制を超え、データ中の特定の低ランク構造を利用する可能性があることを示す。
以上の結果から,過パラメータ化対象の勾配勾配は遅延学習体制を超え,データ中の特定の低ランク構造を利用する可能性が示唆された。
論文 参考訳(メタデータ) (2020-10-22T00:32:12Z) - A Sharp Blockwise Tensor Perturbation Bound for Orthogonal Iteration [23.308822706415867]
高次直交反復(HOOI)に対するブロックワイドテンソル摂動境界を確立する。
モード-$k$特異部分空間推定の上限は、摂動と信号強度のブロックワイズ誤差を特徴とする量に一側収束することを示す。
一つの反復しか持たない一段階 HOOI がテンソル再構成の点でも最適であり,計算コストの低減に有効であることを示す。
論文 参考訳(メタデータ) (2020-08-06T03:01:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。