論文の概要: Efficient Nonparametric Tensor Decomposition for Binary and Count Data
- arxiv url: http://arxiv.org/abs/2401.07711v1
- Date: Mon, 15 Jan 2024 14:27:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 17:01:46.653938
- Title: Efficient Nonparametric Tensor Decomposition for Binary and Count Data
- Title(参考訳): バイナリおよびカウントデータの効率的な非パラメトリックテンソル分解
- Authors: Zerui Tao, Toshihisa Tanaka, Qibin Zhao
- Abstract要約: 本稿では、二分数テンソルと数テンソルのアンダーラインデコンポジションとして、アンダーライン効率のアンダーラインNonアンダーラインテンソルであるENTEDを提案する。
- 参考スコア(独自算出の注目度): 27.02813234958821
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In numerous applications, binary reactions or event counts are observed and
stored within high-order tensors. Tensor decompositions (TDs) serve as a
powerful tool to handle such high-dimensional and sparse data. However, many
traditional TDs are explicitly or implicitly designed based on the Gaussian
distribution, which is unsuitable for discrete data. Moreover, most TDs rely on
predefined multi-linear structures, such as CP and Tucker formats. Therefore,
they may not be effective enough to handle complex real-world datasets. To
address these issues, we propose ENTED, an \underline{E}fficient
\underline{N}onparametric \underline{TE}nsor \underline{D}ecomposition for
binary and count tensors. Specifically, we first employ a nonparametric
Gaussian process (GP) to replace traditional multi-linear structures. Next, we
utilize the \pg augmentation which provides a unified framework to establish
conjugate models for binary and count distributions. Finally, to address the
computational issue of GPs, we enhance the model by incorporating sparse
orthogonal variational inference of inducing points, which offers a more
effective covariance approximation within GPs and stochastic natural gradient
updates for nonparametric models. We evaluate our model on several real-world
tensor completion tasks, considering binary and count datasets. The results
manifest both better performance and computational advantages of the proposed
model.
- Abstract(参考訳): 多くの応用において、二元反応や事象カウントは観測され、高次テンソルに格納される。
テンソル分解(TD)は、そのような高次元でスパースなデータを扱う強力なツールである。
しかし、多くの伝統的なTDは、離散データには適さないガウス分布に基づいて明示的または暗黙的に設計されている。
さらに、ほとんどのTDはCPやTuckerフォーマットのような事前定義されたマルチ線形構造に依存している。
したがって、複雑な実世界のデータセットを扱うのに十分ではないかもしれない。
これらの問題に対処するために、二進テンソルとカウントテンソルのアンダーライン{e}fficient \underline{n}onparametric \underline{te}nsor \underline{d}ecompositionであるentedを提案する。
具体的には、従来の多線型構造を置き換えるために、まず非パラメトリックガウス過程(GP)を用いる。
次に,バイナリ分布とカウント分布の共役モデルを確立するための統一フレームワークである \pg 拡張を利用する。
最後に、GPの計算問題に対処するために、非パラメトリックモデルに対するより効果的な共分散近似と確率的自然勾配更新を提供する誘導点のスパース直交変動推定を組み込むことによりモデルを強化する。
我々は,バイナリとカウントデータセットを考慮した実世界のテンソル補完タスクでモデルを評価する。
その結果,提案モデルの性能と計算性能が両立した。
関連論文リスト
- Functional Bayesian Tucker Decomposition for Continuous-indexed Tensor Data [32.19122007191261]
マルチアスペクトデータを扱うために,関数ベイズタッカー分解(FunBaT)を提案する。
私たちは、Tuckerコアと潜在関数のグループ間の相互作用として、連続インデックスデータを使用します。
高度メッセージパッシング技術に基づく後方拡張性近似のための効率的な推論アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-11-08T16:54:23Z) - VTAE: Variational Transformer Autoencoder with Manifolds Learning [144.0546653941249]
深層生成モデルは、多くの潜伏変数を通して非線形データ分布の学習に成功している。
ジェネレータの非線形性は、潜在空間がデータ空間の不満足な射影を示し、表現学習が不十分になることを意味する。
本研究では、測地学と正確な計算により、深部生成モデルの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-04-03T13:13:19Z) - uGLAD: Sparse graph recovery by optimizing deep unrolled networks [11.48281545083889]
深層ネットワークを最適化してスパースグラフ復元を行う新しい手法を提案する。
我々のモデルであるuGLADは、最先端モデルGLADを教師なし設定に構築し、拡張します。
我々は, 遺伝子調節ネットワークから生成した合成ガウスデータ, 非ガウスデータを用いて, モデル解析を行い, 嫌気性消化の事例研究を行った。
論文 参考訳(メタデータ) (2022-05-23T20:20:27Z) - Scaling Structured Inference with Randomization [64.18063627155128]
本稿では、構造化されたモデルを数万の潜在状態に拡張するためにランダム化された動的プログラミング(RDP)のファミリを提案する。
我々の手法は古典的DPベースの推論に広く適用できる。
また、自動微分とも互換性があり、ニューラルネットワークとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-12-07T11:26:41Z) - Unfolding Projection-free SDP Relaxation of Binary Graph Classifier via
GDPA Linearization [59.87663954467815]
アルゴリズムの展開は、モデルベースのアルゴリズムの各イテレーションをニューラルネットワーク層として実装することにより、解釈可能で類似のニューラルネットワークアーキテクチャを生成する。
本稿では、Gershgorin disc perfect alignment (GDPA)と呼ばれる最近の線形代数定理を利用して、二進グラフの半定値プログラミング緩和(SDR)のためのプロジェクションフリーアルゴリズムをアンロールする。
実験結果から,我々の未学習ネットワークは純粋モデルベースグラフ分類器よりも優れ,純粋データ駆動ネットワークに匹敵する性能を示したが,パラメータははるかに少なかった。
論文 参考訳(メタデータ) (2021-09-10T07:01:15Z) - T-LoHo: A Bayesian Regularization Model for Structured Sparsity and
Smoothness on Graphs [0.0]
グラフ構造化データでは、構造化されたスパーシリティと滑らかさが団結する傾向にある。
グラフィカルな関係を持つ高次元パラメータに先立って提案する。
構造された空間と滑らかさを同時に検出するために使用します。
論文 参考訳(メタデータ) (2021-07-06T10:10:03Z) - SigGPDE: Scaling Sparse Gaussian Processes on Sequential Data [16.463077353773603]
SigGPDEは,ガウス過程(GP)を逐次データに基づいて拡張可能な分散変動推論フレームワークである。
GPシグネチャカーネルの勾配は双曲偏微分方程式(PDE)の解であることを示す。
この理論的な洞察により、ELBOを最適化する効率的なバックプロパゲーションアルゴリズムを構築することができる。
論文 参考訳(メタデータ) (2021-05-10T09:10:17Z) - Probabilistic Circuits for Variational Inference in Discrete Graphical
Models [101.28528515775842]
変分法による離散的グラフィカルモデルの推論は困難である。
エビデンス・ロウアーバウンド(ELBO)を推定するためのサンプリングに基づく多くの手法が提案されている。
Sum Product Networks (SPN) のような確率的回路モデルのトラクタビリティを活用する新しい手法を提案する。
選択的SPNが表現的変動分布として適していることを示し、対象モデルの対数密度が重み付けされた場合、対応するELBOを解析的に計算可能であることを示す。
論文 参考訳(メタデータ) (2020-10-22T05:04:38Z) - Quadruply Stochastic Gaussian Processes [10.152838128195466]
本稿では,スケーラブルなガウス過程(GP)モデルをトレーニングするための変分推論手法を提案する。この手法は,トレーニング点数,$n$,カーネル近似で使用される数基底関数,$m$のいずれにも依存しない。
GPと関連ベクトルマシンを用いた大規模分類および回帰データセットの精度を,最大で$m = 107$の基底関数で示す。
論文 参考訳(メタデータ) (2020-06-04T17:06:25Z) - Revisiting Graph based Collaborative Filtering: A Linear Residual Graph
Convolutional Network Approach [55.44107800525776]
グラフ畳み込みネットワーク(GCN)は、最先端のグラフベースの表現学習モデルである。
本稿では、GCNベースの協調フィルタリング(CF)ベースのレコメンダシステム(RS)について再検討する。
単純なグラフ畳み込みネットワークの理論と整合して,非線形性を取り除くことで推奨性能が向上することを示す。
本稿では,ユーザ・イテム相互作用モデリングを用いたCF用に特別に設計された残差ネットワーク構造を提案する。
論文 参考訳(メタデータ) (2020-01-28T04:41:25Z) - Supervised Learning for Non-Sequential Data: A Canonical Polyadic
Decomposition Approach [85.12934750565971]
特徴相互作用の効率的なモデリングは、非順序的タスクに対する教師あり学習の基盤となる。
この問題を緩和するため、モデルパラメータをテンソルとして暗黙的に表現することが提案されている。
表現性を向上するため,任意の高次元特徴ベクトルに特徴写像を適用できるようにフレームワークを一般化する。
論文 参考訳(メタデータ) (2020-01-27T22:38:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。