論文の概要: Faster Robust Tensor Power Method for Arbitrary Order
- arxiv url: http://arxiv.org/abs/2306.00406v1
- Date: Thu, 1 Jun 2023 07:12:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-02 17:53:04.149761
- Title: Faster Robust Tensor Power Method for Arbitrary Order
- Title(参考訳): 任意の順序に対する高速ロバストテンソルパワー法
- Authors: Yichuan Deng, Zhao Song, Junze Yin
- Abstract要約: emphTensor Power Method (TPM) はテンソルの分解において広く使われている手法の1つである。
我々はスケッチ法を適用し、$widetildeO(np-1)$の出力$p$と dimension$n$tensorで実行時間を達成することができる。
- 参考スコア(独自算出の注目度): 15.090593955414137
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Tensor decomposition is a fundamental method used in various areas to deal
with high-dimensional data. \emph{Tensor power method} (TPM) is one of the
widely-used techniques in the decomposition of tensors. This paper presents a
novel tensor power method for decomposing arbitrary order tensors, which
overcomes limitations of existing approaches that are often restricted to
lower-order (less than $3$) tensors or require strong assumptions about the
underlying data structure. We apply sketching method, and we are able to
achieve the running time of $\widetilde{O}(n^{p-1})$, on the power $p$ and
dimension $n$ tensor. We provide a detailed analysis for any $p$-th order
tensor, which is never given in previous works.
- Abstract(参考訳): テンソル分解は、様々な領域で高次元データを扱うために用いられる基本的な方法である。
\emph{Tensor power method} (TPM) はテンソルの分解において広く使われている手法の1つである。
本稿では、任意の順序テンソルを分解する新しいテンソルパワー法を提案する。これは、しばしば下次テンソルに制限される既存のアプローチの制限を克服し、基礎となるデータ構造について強い仮定を必要とする。
スケッチ法を適用して,$\widetilde{o}(n^{p-1})$ をパワー $p$ とディメンション $n$tensor で実行可能とした。
我々は任意の$p$-階テンソルに対して詳細な解析を行い、これは以前の研究では与えられなかった。
関連論文リスト
- Overcomplete Tensor Decomposition via Koszul-Young Flattenings [63.01248796170617]
最小ランク1項の和として$n_times n times n_3$ tensorを分解する新しいアルゴリズムを与える。
次数-d$s のさらに一般的なクラスは、定数 $C = C(d)$ に対して階数 $Cn$ を超えることができないことを示す。
論文 参考訳(メタデータ) (2024-11-21T17:41:09Z) - Scalable CP Decomposition for Tensor Learning using GPU Tensor Cores [47.87810316745786]
本研究では,エクサスケールテンソル分解を支援する圧縮型テンソル分解フレームワークを提案する。
ベースラインと比較すると、エクスカスケール・テンソルは8000倍のテンソルをサポートし、スピードアップは6.95倍である。
また,本手法を遺伝子解析とテンソル層ニューラルネットワークを含む実世界の2つの応用に適用する。
論文 参考訳(メタデータ) (2023-11-22T21:04:59Z) - Decomposition of linear tensor transformations [0.0]
本研究の目的は, 正確なテンソル分解のための数学的枠組みを開発することである。
論文では3つの異なる問題を導出する。
論文 参考訳(メタデータ) (2023-09-14T16:14:38Z) - On the Accuracy of Hotelling-Type Tensor Deflation: A Random Tensor
Analysis [16.28927188636617]
階数-$r$ の $sum_i=1r beta_i A_i + W$ の非対称スパイクモデルを考える。
本研究では, ホテルリング型デフレに関する研究を行った。
論文 参考訳(メタデータ) (2022-11-16T16:01:56Z) - Average-Case Complexity of Tensor Decomposition for Low-Degree
Polynomials [93.59919600451487]
多くの統計的推論タスクにおいて「統計計算ギャップ」が発生する。
1つの成分が他の成分よりもわずかに大きいランダムオーダー3分解モデルを考える。
テンソルエントリは$ll n3/2$のとき最大成分を正確に推定できるが、$rgg n3/2$のとき失敗する。
論文 参考訳(メタデータ) (2022-11-10T00:40:37Z) - Lower Bounds for the Convergence of Tensor Power Iteration on Random
Overcomplete Models [3.7565501074323224]
テンソルパワー反復を任意の真の成分に収束させるためには、テンソルの多くのステップが必要であることを示す。
我々は、テンソル分解の一般的な目的関数が、電力反復経路に沿って厳密に増大していることを証明する。
論文 参考訳(メタデータ) (2022-11-07T19:23:51Z) - Near-Linear Time and Fixed-Parameter Tractable Algorithms for Tensor
Decompositions [51.19236668224547]
テンソルの低階近似について検討し,テンソルトレインとタッカー分解に着目した。
テンソル列車の分解には、小さなビクリテリアランクを持つビクリテリア$(1 + eps)$-approximationアルゴリズムと、O(q cdot nnz(A))$ランニングタイムを与える。
さらに、任意のグラフを持つテンソルネットワークにアルゴリズムを拡張します。
論文 参考訳(メタデータ) (2022-07-15T11:55:09Z) - Multi-version Tensor Completion for Time-delayed Spatio-temporal Data [50.762087239885936]
実世界の時間データは、様々なデータ読み込み遅延のために不完全または不正確な場合が多い。
経時的に更新を予測するための低ランクテンソルモデルを提案する。
最良基準法に比べて最大27.2%低いルート平均二乗誤差が得られる。
論文 参考訳(メタデータ) (2021-05-11T19:55:56Z) - Tensor Completion via Tensor Networks with a Tucker Wrapper [28.83358353043287]
本論文では,タッカーラッパーを用いたテンソルネットワークを用いて低ランクテンソル完備化(LRTC)を解くことを提案する。
次に、未知の要素を更新するために、2段階の最小二乗法を用いる。
数値シミュレーションにより,提案アルゴリズムは最先端手法に匹敵することを示す。
論文 参考訳(メタデータ) (2020-10-29T17:54:01Z) - Beyond Lazy Training for Over-parameterized Tensor Decomposition [69.4699995828506]
過度なパラメータ化対象の勾配勾配は遅延学習体制を超え、データ中の特定の低ランク構造を利用する可能性があることを示す。
以上の結果から,過パラメータ化対象の勾配勾配は遅延学習体制を超え,データ中の特定の低ランク構造を利用する可能性が示唆された。
論文 参考訳(メタデータ) (2020-10-22T00:32:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。