論文の概要: The AL$\ell_0$CORE Tensor Decomposition for Sparse Count Data
- arxiv url: http://arxiv.org/abs/2403.06153v2
- Date: Tue, 12 Mar 2024 23:10:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 10:59:13.241831
- Title: The AL$\ell_0$CORE Tensor Decomposition for Sparse Count Data
- Title(参考訳): スパースカウントデータのためのAL$\ell_0$COREテンソル分解
- Authors: John Hood, Aaron Schein
- Abstract要約: AL$ell_0$COREは確率的でない非負テンソル分解の新しい形式である。
CP分解の計算的トラクタビリティとタッカーの質的に魅力的な潜在構造の両方を楽しむ。
通常、完全なタッカー分解と同じ結果を得るためには、完全なコアのごく一部しか必要としない。
- 参考スコア(独自算出の注目度): 2.2934536128870118
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces AL$\ell_0$CORE, a new form of probabilistic
non-negative tensor decomposition. AL$\ell_0$CORE is a Tucker decomposition
where the number of non-zero elements (i.e., the $\ell_0$-norm) of the core
tensor is constrained to a preset value $Q$ much smaller than the size of the
core. While the user dictates the total budget $Q$, the locations and values of
the non-zero elements are latent variables and allocated across the core tensor
during inference. AL$\ell_0$CORE -- i.e., $allo$cated $\ell_0$-$co$nstrained
$core$-- thus enjoys both the computational tractability of CP decomposition
and the qualitatively appealing latent structure of Tucker. In a suite of
real-data experiments, we demonstrate that AL$\ell_0$CORE typically requires
only tiny fractions (e.g.,~1%) of the full core to achieve the same results as
full Tucker decomposition at only a correspondingly tiny fraction of the cost.
- Abstract(参考訳): 本稿では、確率的非負テンソル分解の新しい形式であるAL$\ell_0$COREを紹介する。
AL$\ell_0$COREはタッカー分解であり、コアテンソルのゼロでない要素の数(例えば$\ell_0$-norm)は、コアのサイズよりもかなり小さいプリセット値$Q$に制約される。
ユーザは総予算$Q$を指示するが、非ゼロ要素の位置と値は潜伏変数であり、推論中にコアテンソル全体に割り当てられる。
AL$\ell_0$CORE -- つまり$allo$cated $\ell_0$-$co$nstrained $core$-- なので、CP分解の計算的トラクタビリティと、Tuckerの質的に魅力的な潜在構造の両方を楽しむことができる。
実データ実験のスイートでは、AL$\ell_0$COREは通常、完全なTucker分解と同じ結果を得るためには、完全なコアの小さな分数(例えば、~1%)しか必要としないことを示した。
関連論文リスト
- Overcomplete Tensor Decomposition via Koszul-Young Flattenings [63.01248796170617]
最小ランク1項の和として$n_times n times n_3$ tensorを分解する新しいアルゴリズムを与える。
次数-d$s のさらに一般的なクラスは、定数 $C = C(d)$ に対して階数 $Cn$ を超えることができないことを示す。
論文 参考訳(メタデータ) (2024-11-21T17:41:09Z) - Noise-Augmented $\ell_0$ Regularization of Tensor Regression with Tucker
Decomposition [13.38920246791158]
テンソル予測器を用いた低ランク分解に基づく回帰法はテンソル予測器の構造情報を利用する。
テンソル回帰のパラメータを正規化するNA$$CT$2$という手法を提案する。
論文 参考訳(メタデータ) (2023-02-19T02:40:35Z) - Average-Case Complexity of Tensor Decomposition for Low-Degree
Polynomials [93.59919600451487]
多くの統計的推論タスクにおいて「統計計算ギャップ」が発生する。
1つの成分が他の成分よりもわずかに大きいランダムオーダー3分解モデルを考える。
テンソルエントリは$ll n3/2$のとき最大成分を正確に推定できるが、$rgg n3/2$のとき失敗する。
論文 参考訳(メタデータ) (2022-11-10T00:40:37Z) - Monogamy of entanglement between cones [68.8204255655161]
モノガミーは量子論の特徴であるだけでなく、凸錐の一般対の極小テンソル積を特徴づけることを示した。
我々の証明は、アフィン同値まで単純化された生成物の新たな特徴を生かしている。
論文 参考訳(メタデータ) (2022-06-23T16:23:59Z) - FriendlyCore: Practical Differentially Private Aggregation [67.04951703461657]
我々は、制約のない(擬似)計量空間から点の集合を$cal D$として取り出す、単純で実用的なツールである$mathsfFriendlyCore$を提案する。
$cal D$ が有効直径 $r$ を持つとき、$mathsfFriendlyCore$ はすべての点を含む "stable" サブセット $cal D_Gsubseteq cal D$ を返す。
$mathsfFriendlyCore$は、プライベートに集約する前に入力を前処理するために使用することができる。
論文 参考訳(メタデータ) (2021-10-19T17:43:50Z) - Optimal Spectral Recovery of a Planted Vector in a Subspace [80.02218763267992]
我々は、$ell_4$ノルムが同じ$ell$ノルムを持つガウスベクトルと異なるプラントベクトル$v$の効率的な推定と検出について研究する。
規則$n rho gg sqrtN$ では、大クラスのスペクトル法(そしてより一般的には、入力の低次法)は、植込みベクトルの検出に失敗する。
論文 参考訳(メタデータ) (2021-05-31T16:10:49Z) - Two-way kernel matrix puncturing: towards resource-efficient PCA and
spectral clustering [43.50783459690612]
この方法は、データマトリックス$XinmathbbCptimes n$と対応するカーネル(Gram)マトリックス$K$の両方をBernoulliマスクを介してランダムに「切断」する。
我々は、GAN生成した画像データベースを実証的に確認し、データを劇的にパンクし、巨大な計算とストレージのゲインを提供することができることを確認した。
論文 参考訳(メタデータ) (2021-02-24T14:01:58Z) - Exact nuclear norm, completion and decomposition for random overcomplete
tensors via degree-4 SOS [0.7233897166339269]
次数4$SOSにインスパイアされた単純な半定値プログラムは、ランダムな非対称成分を持つテンソル上のテンソル核ノルム、テンソル分解、テンソル完備化問題を正確に解くことができることを示す。
これらの半定値プログラムは、$(ntimes ntimes n)$-tensor $mathcalT$と$mleq n3/2/polylog(n)$ランダム非対称成分の核ノルムと成分を正確に見つけることができることを示す。
論文 参考訳(メタデータ) (2020-11-18T17:27:36Z) - Robustly Learning any Clusterable Mixture of Gaussians [55.41573600814391]
本研究では,高次元ガウス混合系の対向ロバスト条件下での効率的な学習性について検討する。
理論的に最適に近い誤り証明である$tildeO(epsilon)$の情報を、$epsilon$-corrupted $k$-mixtureで学習するアルゴリズムを提供する。
我々の主な技術的貢献は、ガウス混合系からの新しい頑健な識別可能性証明クラスターであり、これは正方形の定度証明システムによって捉えることができる。
論文 参考訳(メタデータ) (2020-05-13T16:44:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。