論文の概要: Functional Bayesian Tucker Decomposition for Continuous-indexed Tensor Data
- arxiv url: http://arxiv.org/abs/2311.04829v2
- Date: Tue, 19 Mar 2024 01:39:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-21 00:20:56.798615
- Title: Functional Bayesian Tucker Decomposition for Continuous-indexed Tensor Data
- Title(参考訳): 連続インデクシングテンソルデータに対する関数ベイズタッカー分解
- Authors: Shikai Fang, Xin Yu, Zheng Wang, Shibo Li, Mike Kirby, Shandian Zhe,
- Abstract要約: マルチアスペクトデータを扱うために,関数ベイズタッカー分解(FunBaT)を提案する。
私たちは、Tuckerコアと潜在関数のグループ間の相互作用として、連続インデックスデータを使用します。
高度メッセージパッシング技術に基づく後方拡張性近似のための効率的な推論アルゴリズムを開発した。
- 参考スコア(独自算出の注目度): 32.19122007191261
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Tucker decomposition is a powerful tensor model to handle multi-aspect data. It demonstrates the low-rank property by decomposing the grid-structured data as interactions between a core tensor and a set of object representations (factors). A fundamental assumption of such decomposition is that there are finite objects in each aspect or mode, corresponding to discrete indexes of data entries. However, real-world data is often not naturally posed in this setting. For example, geographic data is represented as continuous indexes of latitude and longitude coordinates, and cannot fit tensor models directly. To generalize Tucker decomposition to such scenarios, we propose Functional Bayesian Tucker Decomposition (FunBaT). We treat the continuous-indexed data as the interaction between the Tucker core and a group of latent functions. We use Gaussian processes (GP) as functional priors to model the latent functions. Then, we convert each GP into a state-space prior by constructing an equivalent stochastic differential equation (SDE) to reduce computational cost. An efficient inference algorithm is developed for scalable posterior approximation based on advanced message-passing techniques. The advantage of our method is shown in both synthetic data and several real-world applications. We release the code of FunBaT at \url{https://github.com/xuangu-fang/Functional-Bayesian-Tucker-Decomposition}.
- Abstract(参考訳): タッカー分解はマルチアスペクトデータを処理する強力なテンソルモデルである。
グリッド構造データをコアテンソルとオブジェクト表現(要素)の集合間の相互作用として分解することで、低ランク性を示す。
このような分解の基本的な前提は、データエントリの離散的なインデックスに対応する、各アスペクトまたはモードに有限オブジェクトが存在するということである。
しかし、現実世界のデータはこの設定では自然に当てはまらないことが多い。
例えば、地理的データは緯度と経度座標の連続インデックスとして表現され、テンソルモデルに直接適合することができない。
このようなシナリオにタッカー分解を一般化するために,関数ベイズタッカー分解(FunBaT)を提案する。
連続インデックスデータを,Tuckerコアと潜在関数群との相互作用として扱う。
潜在関数のモデル化にはガウス過程(GP)を用いる。
次に,計算コストを削減するために等価確率微分方程式(SDE)を構築することにより,各GPを状態空間に変換する。
高度メッセージパッシング技術に基づくスケーラブルな後部近似のための効率的な推論アルゴリズムを開発した。
本手法の利点は, 合成データと実世界の応用の両方で示される。
FunBaT のコードは \url{https://github.com/xuangu-fang/Functional-Bayesian-Tucker-Decomposition} でリリースします。
関連論文リスト
- Functional-Edged Network Modeling [5.858447612884839]
我々は、隣接行列を関数的隣接テンソルに変換し、関数表現専用の追加次元を導入する。
関数エッジの不規則な観測に対処するため,テンソル完備化問題の解法としてモデル推論を行う。
また、関数型エッジネットワークモデルの望ましい性質を示すために、いくつかの定理を導出する。
論文 参考訳(メタデータ) (2024-03-30T02:23:01Z) - Fast and interpretable Support Vector Classification based on the truncated ANOVA decomposition [0.0]
サポートベクタマシン(SVM)は、散在するデータの分類を行うための重要なツールである。
三角関数やウェーブレットに基づく特徴写像を用いて,SVMを原始形式で解くことを提案する。
論文 参考訳(メタデータ) (2024-02-04T10:27:42Z) - Efficient Nonparametric Tensor Decomposition for Binary and Count Data [27.02813234958821]
本稿では、二分数テンソルと数テンソルのアンダーラインデコンポジションとして、アンダーライン効率のアンダーラインNonアンダーラインテンソルであるENTEDを提案する。
論文 参考訳(メタデータ) (2024-01-15T14:27:03Z) - Streaming Factor Trajectory Learning for Temporal Tensor Decomposition [33.18423605559094]
時相テンソル分解のためのストリーム係数軌道学習を提案する。
我々はガウス過程(GP)を用いて因子の軌道をモデル化し、その時間的進化を柔軟に推定する。
合成タスクと実世界のアプリケーションの両方において、SFTLの利点を示してきた。
論文 参考訳(メタデータ) (2023-10-25T21:58:52Z) - Score-based Diffusion Models in Function Space [140.792362459734]
拡散モデルは、最近、生成モデリングの強力なフレームワークとして登場した。
本稿では,関数空間における拡散モデルをトレーニングするためのDDO(Denoising Diffusion Operators)という,数学的に厳密なフレームワークを提案する。
データ解像度に依存しない固定コストで、対応する離散化アルゴリズムが正確なサンプルを生成することを示す。
論文 参考訳(メタデータ) (2023-02-14T23:50:53Z) - Low-Rank Tensor Function Representation for Multi-Dimensional Data
Recovery [52.21846313876592]
低ランクテンソル関数表現(LRTFR)は、無限解像度でメッシュグリッドを超えてデータを連続的に表現することができる。
テンソル関数に対する2つの基本的な概念、すなわちテンソル関数ランクとローランクテンソル関数分解を開発する。
提案手法は,最先端手法と比較して,提案手法の優越性と汎用性を裏付けるものである。
論文 参考訳(メタデータ) (2022-12-01T04:00:38Z) - Score-based Continuous-time Discrete Diffusion Models [102.65769839899315]
連続時間マルコフ連鎖を介して逆過程が認知されるマルコフジャンププロセスを導入することにより、拡散モデルを離散変数に拡張する。
条件境界分布の単純なマッチングにより、偏りのない推定器が得られることを示す。
提案手法の有効性を,合成および実世界の音楽と画像のベンチマークで示す。
論文 参考訳(メタデータ) (2022-11-30T05:33:29Z) - Nonparametric Factor Trajectory Learning for Dynamic Tensor
Decomposition [20.55025648415664]
動的テンソル分解(NONFAT)のためのNON FActor Trajectory Learningを提案する。
我々は第2レベルのGPを用いてエントリ値をサンプリングし、エンティティ間の時間的関係をキャプチャする。
実世界のいくつかの応用において,本手法の利点を示した。
論文 参考訳(メタデータ) (2022-07-06T05:33:00Z) - Graph-adaptive Rectified Linear Unit for Graph Neural Networks [64.92221119723048]
グラフニューラルネットワーク(GNN)は、従来の畳み込みを非ユークリッドデータでの学習に拡張することで、目覚ましい成功を収めた。
本稿では,周辺情報を利用した新しいパラメトリックアクティベーション機能であるグラフ適応整流線形ユニット(GRELU)を提案する。
我々は,GNNのバックボーンと様々な下流タスクによって,プラグアンドプレイGRELU法が効率的かつ効果的であることを示す包括的実験を行った。
論文 参考訳(メタデータ) (2022-02-13T10:54:59Z) - Model Fusion with Kullback--Leibler Divergence [58.20269014662046]
異種データセットから学習した後続分布を融合する手法を提案する。
我々のアルゴリズムは、融合モデルと個々のデータセット後部の両方に対する平均場仮定に依存している。
論文 参考訳(メタデータ) (2020-07-13T03:27:45Z) - Supervised Learning for Non-Sequential Data: A Canonical Polyadic
Decomposition Approach [85.12934750565971]
特徴相互作用の効率的なモデリングは、非順序的タスクに対する教師あり学習の基盤となる。
この問題を緩和するため、モデルパラメータをテンソルとして暗黙的に表現することが提案されている。
表現性を向上するため,任意の高次元特徴ベクトルに特徴写像を適用できるようにフレームワークを一般化する。
論文 参考訳(メタデータ) (2020-01-27T22:38:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。