論文の概要: Nonparametric Sparse Tensor Factorization with Hierarchical Gamma
Processes
- arxiv url: http://arxiv.org/abs/2110.10082v1
- Date: Tue, 19 Oct 2021 16:17:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-20 13:47:08.411582
- Title: Nonparametric Sparse Tensor Factorization with Hierarchical Gamma
Processes
- Title(参考訳): 階層型ガンマプロセスによる非パラメトリックスパーステンソル因子化
- Authors: Conor Tillinghast, Zheng Wang, Shandian Zhe
- Abstract要約: 疎観測テンソルに対する非パラメトリック分解法を提案する。
階層的ガンマ過程とポアソンランダム測度を用いてテンソル値のプロセスを構築する。
効率的な推論のために、有限標本分割、密度変換、ランダム特徴量に対するディリクレ過程特性を用いる。
- 参考スコア(独自算出の注目度): 16.79618682556073
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a nonparametric factorization approach for sparsely observed
tensors. The sparsity does not mean zero-valued entries are massive or
dominated. Rather, it implies the observed entries are very few, and even fewer
with the growth of the tensor; this is ubiquitous in practice. Compared with
the existent works, our model not only leverages the structural information
underlying the observed entry indices, but also provides extra interpretability
and flexibility -- it can simultaneously estimate a set of location factors
about the intrinsic properties of the tensor nodes, and another set of
sociability factors reflecting their extrovert activity in interacting with
others; users are free to choose a trade-off between the two types of factors.
Specifically, we use hierarchical Gamma processes and Poisson random measures
to construct a tensor-valued process, which can freely sample the two types of
factors to generate tensors and always guarantees an asymptotic sparsity. We
then normalize the tensor process to obtain hierarchical Dirichlet processes to
sample each observed entry index, and use a Gaussian process to sample the
entry value as a nonlinear function of the factors, so as to capture both the
sparse structure properties and complex node relationships. For efficient
inference, we use Dirichlet process properties over finite sample partitions,
density transformations, and random features to develop a stochastic
variational estimation algorithm. We demonstrate the advantage of our method in
several benchmark datasets.
- Abstract(参考訳): 疎観測テンソルに対する非パラメトリック分解法を提案する。
スパーシティはゼロ値のエントリが大量あるいは支配的であるという意味ではない。
むしろ、観測されたエントリはテンソルの成長とともに非常に少なく、さらに少ないことを意味する。
既存の研究と比較すると,本モデルは,観測された入力指標の基盤となる構造情報を活用するだけでなく,さらなる解釈可能性や柔軟性も提供し,テンソルノードの内在的特性に関する位置要因のセットと,他と相互作用する際の外向的活動を反映する他の社会的要因のセットを同時に推定することができる。
具体的には、階層的ガンマ過程とポアソン確率測度を用いてテンソル値プロセスを構築し、テンソルを生成するために2つの種類の因子を自由にサンプリングし、漸近的スパーシティを常に保証する。
次にテンソル過程を正規化し、観測された各エントリーインデックスをサンプリングするために階層的ディリクレ過程を取得し、ガウス過程を用いて要素の非線形関数としてエントリ値をサンプリングし、スパース構造特性と複素ノード関係の両方を捉える。
効率的な推論のために, 有限標本分割, 密度変換, ランダム特徴に対するディリクレ過程特性を用いて確率的変動推定アルゴリズムを開発した。
本手法の利点をいくつかのベンチマークデータセットで実証する。
関連論文リスト
- Tensor cumulants for statistical inference on invariant distributions [49.80012009682584]
我々は,PCAが信号の大きさの臨界値で計算的に困難になることを示す。
我々は、与えられた次数の不変量に対して明示的でほぼ直交的な基底を与える新しい対象の集合を定義する。
また、異なるアンサンブルを区別する新しい問題も分析できます。
論文 参考訳(メタデータ) (2024-04-29T14:33:24Z) - Nonparametric Partial Disentanglement via Mechanism Sparsity: Sparse
Actions, Interventions and Sparse Temporal Dependencies [58.179981892921056]
この研究は、メカニズムのスパーシティ正則化(英語版)と呼ばれる、アンタングルメントの新たな原理を導入する。
本稿では,潜在要因を同時に学習することで,絡み合いを誘発する表現学習手法を提案する。
学習した因果グラフをスパースに規則化することにより、潜伏因子を復元できることを示す。
論文 参考訳(メタデータ) (2024-01-10T02:38:21Z) - Posterior Contraction Rates for Mat\'ern Gaussian Processes on
Riemannian Manifolds [51.68005047958965]
我々は,本質的なガウス過程が実際により優れた性能を発揮することを示す。
我々の研究は、データ効率の異なるレベルを区別するために、よりきめ細かい分析が必要であることを示している。
論文 参考訳(メタデータ) (2023-09-19T20:30:58Z) - Estimating Higher-Order Mixed Memberships via the $\ell_{2,\infty}$
Tensor Perturbation Bound [8.521132000449766]
テンソルブロックモデルの一般化であるテンソル混合メンバーシップブロックモデルを提案する。
我々は,モデルの同定可能性を確立し,計算効率の良い推定手法を提案する。
本手法を実データおよびシミュレーションデータに適用し,個別のコミュニティメンバーシップを持つモデルから特定できない効果を示す。
論文 参考訳(メタデータ) (2022-12-16T18:32:20Z) - Tensor Full Feature Measure and Its Nonconvex Relaxation Applications to
Tensor Recovery [1.8899300124593645]
完全特徴量(FFM)と呼ばれる新しいテンソル間隔尺度を提案する。
これは各次元の特徴次元を同時に記述することができ、タッカーランクとテンソルチューブランクを結びつけることができる。
FFMに基づく2つの効率的なモデルを提案し、提案モデルを解決するために2つの代替乗算器法(ADMM)アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-09-25T01:44:34Z) - Large-Scale Learning with Fourier Features and Tensor Decompositions [3.6930948691311007]
決定論的フーリエ特徴のテンソル積構造を利用して、モデルパラメータを低ランクテンソル分解として表現することができる。
数値実験により、我々の低ランクテンソル法が対応する非パラメトリックモデルと同じ性能を得ることを示す。
論文 参考訳(メタデータ) (2021-09-03T14:12:53Z) - Low-rank Characteristic Tensor Density Estimation Part I: Foundations [38.05393186002834]
テンソル因子化ツールに基づく新しい手法を提案する。
次元の呪いを回避するため、この特性テンソルの低ランクモデルを導入する。
提案手法の有望な性能を,複数の測定データを用いて実証する。
論文 参考訳(メタデータ) (2020-08-27T18:06:19Z) - Provable Online CP/PARAFAC Decomposition of a Structured Tensor via
Dictionary Learning [18.464203215845373]
構造化3変量テンソルをその構成的ポリアディック(CP)因子に分解する問題を考察する。
我々は、構造化テンソル因子分解のための証明可能なアルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-06-30T00:31:06Z) - Uncertainty quantification for nonconvex tensor completion: Confidence
intervals, heteroscedasticity and optimality [92.35257908210316]
本研究では,不完全かつ破損した観測によって与えられる低ランクテンソルを推定する問題について検討する。
改善不可能なレートをell-2$の精度で達成できることが分かりました。
論文 参考訳(メタデータ) (2020-06-15T17:47:13Z) - Multiplicative noise and heavy tails in stochastic optimization [62.993432503309485]
経験的最適化は現代の機械学習の中心であるが、その成功における役割はまだ不明である。
分散による離散乗法雑音のパラメータによく現れることを示す。
最新のステップサイズやデータを含む重要な要素について、詳細な分析を行い、いずれも最先端のニューラルネットワークモデルで同様の結果を示す。
論文 参考訳(メタデータ) (2020-06-11T09:58:01Z) - Supervised Learning for Non-Sequential Data: A Canonical Polyadic
Decomposition Approach [85.12934750565971]
特徴相互作用の効率的なモデリングは、非順序的タスクに対する教師あり学習の基盤となる。
この問題を緩和するため、モデルパラメータをテンソルとして暗黙的に表現することが提案されている。
表現性を向上するため,任意の高次元特徴ベクトルに特徴写像を適用できるようにフレームワークを一般化する。
論文 参考訳(メタデータ) (2020-01-27T22:38:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。