論文の概要: Robust Low-rank Tensor Train Recovery
- arxiv url: http://arxiv.org/abs/2410.15224v1
- Date: Sat, 19 Oct 2024 21:59:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-22 13:15:44.509286
- Title: Robust Low-rank Tensor Train Recovery
- Title(参考訳): ロバスト低ランクテンソルトレインリカバリ
- Authors: Zhen Qin, Zhihui Zhu,
- Abstract要約: train (TT) 分解は、小さな次元の行列を$O(N)$を使用する$N$のテンソルを表す。
そのコンパクトな表現のため、TT分解は信号処理や量子情報に広く応用されている。
- 参考スコア(独自算出の注目度): 27.29463801531576
- License:
- Abstract: Tensor train (TT) decomposition represents an $N$-order tensor using $O(N)$ matrices (i.e., factors) of small dimensions, achieved through products among these factors. Due to its compact representation, TT decomposition has found wide applications, including various tensor recovery problems in signal processing and quantum information. In this paper, we study the problem of reconstructing a TT format tensor from measurements that are contaminated by outliers with arbitrary values. Given the vulnerability of smooth formulations to corruptions, we use an $\ell_1$ loss function to enhance robustness against outliers. We first establish the $\ell_1/\ell_2$-restricted isometry property (RIP) for Gaussian measurement operators, demonstrating that the information in the TT format tensor can be preserved using a number of measurements that grows linearly with $N$. We also prove the sharpness property for the $\ell_1$ loss function optimized over TT format tensors. Building on the $\ell_1/\ell_2$-RIP and sharpness property, we then propose two complementary methods to recover the TT format tensor from the corrupted measurements: the projected subgradient method (PSubGM), which optimizes over the entire tensor, and the factorized Riemannian subgradient method (FRSubGM), which optimizes directly over the factors. Compared to PSubGM, the factorized approach FRSubGM significantly reduces the memory cost at the expense of a slightly slower convergence rate. Nevertheless, we show that both methods, with diminishing step sizes, converge linearly to the ground-truth tensor given an appropriate initialization, which can be obtained by a truncated spectral method.
- Abstract(参考訳): テンソルトレイン(TT)分解は、これらの因子のうちの積によって達成される小さな次元の行列(すなわち因子)を用いて、$N$のテンソルを表す。
そのコンパクトな表現のため、TT分解は信号処理や量子情報における様々なテンソル回復問題を含む幅広い応用を見出した。
本稿では,任意の値を持つ外れ値によって汚染された測定値からTTフォーマットテンソルを再構成する問題について検討する。
汚職に対するスムーズな定式化の脆弱性を考えると、出力値に対する堅牢性を高めるために$\ell_1$ロス関数を使用します。
まず、ガウス測度演算子に対する$\ell_1/\ell_2$-restricted isometry property (RIP) を確立し、TT形式テンソルの情報は、$N$で線形に成長する多くの測定値を用いて保存可能であることを示した。
また、TTフォーマットテンソルに最適化された$\ell_1$ロス関数のシャープネス特性も証明する。
次に, シャープネス特性と $\ell_1/\ell_2$-RIP に基づいて, TT フォーマットテンソルを破損した測定値から復元する2つの相補的手法を提案し, テンソル全体を最適化する射影次数法 (PSubGM) と, 因子を直接最適化する分解リーマン次数法 (FRSubGM) を提案する。
PSubGMと比較して、FRSubGMは若干の収束率を犠牲にしてメモリコストを大幅に削減する。
いずれの手法も, ステップサイズが小さく, 適切に初期化を施した接地トラステンソルに直線的に収束することを示した。
関連論文リスト
- Computational and Statistical Guarantees for Tensor-on-Tensor Regression with Tensor Train Decomposition [27.29463801531576]
TTに基づくToT回帰モデルの理論的およびアルゴリズム的側面について検討する。
制約付き誤差境界に対する解を効率的に見つけるための2つのアルゴリズムを提案する。
我々はIHTとRGDの両方の線形収束速度を確立する。
論文 参考訳(メタデータ) (2024-06-10T03:51:38Z) - Towards Robust Model-Based Reinforcement Learning Against Adversarial Corruption [60.958746600254884]
本研究は、モデルベース強化学習(RL)における敵対的腐敗の課題に取り組む。
本稿では,MLE に対する不確実性重みとして全変量 (TV) に基づく情報比を利用する,汚損楽観的 MLE (CR-OMLE) アルゴリズムを提案する。
我々は、重み付け手法をオフライン設定にまで拡張し、汚損性悲観的MLE (CR-PMLE) というアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-14T07:27:30Z) - Guaranteed Nonconvex Factorization Approach for Tensor Train Recovery [30.876260188209105]
因子化アプローチに対する最初の収束保証を提供する。
いわゆる左直交TTフォーマットを最適化する。
我々はRGDが線形速度で基底真理を確実に回復できることを証明した。
論文 参考訳(メタデータ) (2024-01-05T01:17:16Z) - A Novel Tensor Factorization-Based Method with Robustness to Inaccurate
Rank Estimation [9.058215418134209]
本稿では,2つの低ランク制約を持つテンソルノルムを提案する。
結果のテンソル完成モデルが不正確なランク推定による性能劣化を効果的に回避できることが理論的に証明されている。
これに基づいて、最適化アルゴリズムの各イテレーションの総コストは$mathcalO(n3log n + kn3)$から$mathcalO(n4)$に削減される。
論文 参考訳(メタデータ) (2023-05-19T06:26:18Z) - Efficient Tensor Completion via Element-wise Weighted Low-rank Tensor
Train with Overlapping Ket Augmentation [18.438177637687357]
本稿では,要素重み付け手法による新しいテンソル完備化手法を提案する。
具体的には,隣接ブロックからのエッジ要素の回復品質について検討する。
実験結果から,提案アルゴリズムのTWMac-TTは,他の競合するテンソル補完法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-09-13T06:50:37Z) - Augmented Tensor Decomposition with Stochastic Optimization [46.16865811396394]
実世界のテンソルデータは、通常高次で、数百万から数十億のエントリを持つ大きな次元を持つ。
テンソル全体を従来のアルゴリズムで分解するのは高価である。
本稿では、データ拡張を効果的に取り入れて下流の分類を向上する拡張テンソル分解を提案する。
論文 参考訳(メタデータ) (2021-06-15T06:29:05Z) - MTC: Multiresolution Tensor Completion from Partial and Coarse
Observations [49.931849672492305]
既存の完備化の定式化は、主に1つのテンソルからの部分的な観測に依存する。
この問題を解決するために,効率的なマルチレゾリューション・コンプリート・モデル(MTC)を提案する。
論文 参考訳(メタデータ) (2021-06-14T02:20:03Z) - Lattice partition recovery with dyadic CART [79.96359947166592]
我々は、$d$次元格子上の加法ガウス雑音によって破損したピースワイド定値信号について検討する。
この形式のデータは、多くのアプリケーションで自然に発生し、統計処理や信号処理の文献において、信号の検出やテスト、ノイズの除去、推定といったタスクが広く研究されている。
本稿では,未知の信号の一貫性領域によって誘導される格子の分割を推定する,分割回復の問題について考察する。
我々は、DCARTベースの手順が、下位分割を$sigma2 k*の順序で一貫して推定することを証明した。
論文 参考訳(メタデータ) (2021-05-27T23:41:01Z) - A Sharp Blockwise Tensor Perturbation Bound for Orthogonal Iteration [23.308822706415867]
高次直交反復(HOOI)に対するブロックワイドテンソル摂動境界を確立する。
モード-$k$特異部分空間推定の上限は、摂動と信号強度のブロックワイズ誤差を特徴とする量に一側収束することを示す。
一つの反復しか持たない一段階 HOOI がテンソル再構成の点でも最適であり,計算コストの低減に有効であることを示す。
論文 参考訳(メタデータ) (2020-08-06T03:01:28Z) - The Generalized Lasso with Nonlinear Observations and Generative Priors [63.541900026673055]
我々は、幅広い測定モデルで満たされるガウス下測度を仮定する。
この結果から, 局所埋込特性を仮定して, 均一回復保証まで拡張できることが示唆された。
論文 参考訳(メタデータ) (2020-06-22T16:43:35Z) - Multi-View Spectral Clustering Tailored Tensor Low-Rank Representation [105.33409035876691]
本稿では,テンソル低ランクモデルに基づくマルチビュースペクトルクラスタリング(MVSC)の問題について検討する。
MVSCに適合する新しい構造テンソル低ランクノルムを設計する。
提案手法は最先端の手法よりもかなり優れていることを示す。
論文 参考訳(メタデータ) (2020-04-30T11:52:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。