論文の概要: On the Accuracy of Hotelling-Type Tensor Deflation: A Random Tensor
Analysis
- arxiv url: http://arxiv.org/abs/2211.09004v1
- Date: Wed, 16 Nov 2022 16:01:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 16:34:12.549140
- Title: On the Accuracy of Hotelling-Type Tensor Deflation: A Random Tensor
Analysis
- Title(参考訳): hotelling型テンソルデフレレーションの精度について:ランダムテンソル解析
- Authors: Mohamed El Amine Seddik, Maxime Guillaud, Alexis Decurninge
- Abstract要約: 階数-$r$ の $sum_i=1r beta_i A_i + W$ の非対称スパイクモデルを考える。
本研究では, ホテルリング型デフレに関する研究を行った。
- 参考スコア(独自算出の注目度): 16.28927188636617
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Leveraging on recent advances in random tensor theory, we consider in this
paper a rank-$r$ asymmetric spiked tensor model of the form $\sum_{i=1}^r
\beta_i A_i + W$ where $\beta_i\geq 0$ and the $A_i$'s are rank-one tensors
such that $\langle A_i, A_j \rangle\in [0, 1]$ for $i\neq j$, based on which we
provide an asymptotic study of Hotelling-type tensor deflation in the large
dimensional regime. Specifically, our analysis characterizes the singular
values and alignments at each step of the deflation procedure, for
asymptotically large tensor dimensions. This can be used to construct
consistent estimators of different quantities involved in the underlying
problem, such as the signal-to-noise ratios $\beta_i$ or the alignments between
the different signal components $\langle A_i, A_j \rangle$.
- Abstract(参考訳): ランダムテンソル理論の最近の進歩を利用して、この論文ではランク-r$非対称スパイクテンソルモデルとして $\sum_{i=1}^r \beta_i A_i + W$ where $\beta_i\geq 0$ and the $A_i$'s are rank-one tensor such that $\langle A_i, A_j \rangle\in [0, 1]$ for $i\neq j$ を考える。
具体的には,漸近的に大きいテンソル次元に対して,デフレ手順の各ステップにおける特異値とアライメントを特徴付ける。
これは、信号対雑音比$\beta_i$や、異なる信号成分$\langle a_i, a_j \rangle$間のアライメントなど、基礎問題に関連する異なる量の一貫した推定器を構築するのに使うことができる。
関連論文リスト
- Overcomplete Tensor Decomposition via Koszul-Young Flattenings [63.01248796170617]
最小ランク1項の和として$n_times n times n_3$ tensorを分解する新しいアルゴリズムを与える。
次数-d$s のさらに一般的なクラスは、定数 $C = C(d)$ に対して階数 $Cn$ を超えることができないことを示す。
論文 参考訳(メタデータ) (2024-11-21T17:41:09Z) - Tensor cumulants for statistical inference on invariant distributions [49.80012009682584]
我々は,PCAが信号の大きさの臨界値で計算的に困難になることを示す。
我々は、与えられた次数の不変量に対して明示的でほぼ直交的な基底を与える新しい対象の集合を定義する。
また、異なるアンサンブルを区別する新しい問題も分析できます。
論文 参考訳(メタデータ) (2024-04-29T14:33:24Z) - Correlated volumes for extended wavefunctions on a random-regular graph [0.0]
分岐数$k=2の乱乱ランダム正則グラフにおいて、アンダーソンモデルに対する金属波動関数のエルゴード特性を解析する。
熱力学的限界における対応するフラクタル次元$D_q$と、有限サイズ効果を制御する相関ボリューム$N_q$を抽出する。
論文 参考訳(メタデータ) (2023-11-13T19:15:18Z) - On the Accuracy of Hotelling-Type Asymmetric Tensor Deflation: A Random
Tensor Analysis [14.809070996761013]
ホテルリング型テンソルデフレレーションはノイズの存在下で研究されている。
我々は,デフレ手順の各ステップにおいて,推定特異値と推定および真の特異ベクトルのアライメントを解析的に特徴付ける。
論文 参考訳(メタデータ) (2023-10-28T14:40:10Z) - Average-Case Complexity of Tensor Decomposition for Low-Degree
Polynomials [93.59919600451487]
多くの統計的推論タスクにおいて「統計計算ギャップ」が発生する。
1つの成分が他の成分よりもわずかに大きいランダムオーダー3分解モデルを考える。
テンソルエントリは$ll n3/2$のとき最大成分を正確に推定できるが、$rgg n3/2$のとき失敗する。
論文 参考訳(メタデータ) (2022-11-10T00:40:37Z) - Near-Linear Time and Fixed-Parameter Tractable Algorithms for Tensor
Decompositions [51.19236668224547]
テンソルの低階近似について検討し,テンソルトレインとタッカー分解に着目した。
テンソル列車の分解には、小さなビクリテリアランクを持つビクリテリア$(1 + eps)$-approximationアルゴリズムと、O(q cdot nnz(A))$ランニングタイムを与える。
さらに、任意のグラフを持つテンソルネットワークにアルゴリズムを拡張します。
論文 参考訳(メタデータ) (2022-07-15T11:55:09Z) - When Random Tensors meet Random Matrices [50.568841545067144]
本稿では,ガウス雑音を伴う非対称次数-$d$スパイクテンソルモデルについて検討する。
検討したモデルの解析は、等価なスパイクされた対称テクシットブロック-ワイドランダム行列の解析に起因していることを示す。
論文 参考訳(メタデータ) (2021-12-23T04:05:01Z) - Exact nuclear norm, completion and decomposition for random overcomplete
tensors via degree-4 SOS [0.7233897166339269]
次数4$SOSにインスパイアされた単純な半定値プログラムは、ランダムな非対称成分を持つテンソル上のテンソル核ノルム、テンソル分解、テンソル完備化問題を正確に解くことができることを示す。
これらの半定値プログラムは、$(ntimes ntimes n)$-tensor $mathcalT$と$mleq n3/2/polylog(n)$ランダム非対称成分の核ノルムと成分を正確に見つけることができることを示す。
論文 参考訳(メタデータ) (2020-11-18T17:27:36Z) - Beyond Lazy Training for Over-parameterized Tensor Decomposition [69.4699995828506]
過度なパラメータ化対象の勾配勾配は遅延学習体制を超え、データ中の特定の低ランク構造を利用する可能性があることを示す。
以上の結果から,過パラメータ化対象の勾配勾配は遅延学習体制を超え,データ中の特定の低ランク構造を利用する可能性が示唆された。
論文 参考訳(メタデータ) (2020-10-22T00:32:12Z) - Tensor Estimation with Nearly Linear Samples Given Weak Side Information [5.69361786082969]
弱側情報はサンプルを$O(n)$に減らすのに十分であることを示す。
我々は、この側情報を利用して、任意の小さな定数$kappa > 0$に対して$O(n1+kappa)$サンプルを持つ一貫した推定子を生成するアルゴリズムを提供する。
論文 参考訳(メタデータ) (2020-07-01T20:28:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。