論文の概要: Multi-Dictionary Tensor Decomposition
- arxiv url: http://arxiv.org/abs/2309.09717v1
- Date: Mon, 18 Sep 2023 12:31:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 13:43:25.736924
- Title: Multi-Dictionary Tensor Decomposition
- Title(参考訳): 多項テンソル分解
- Authors: Maxwell McNeil and Petko Bogdanov
- Abstract要約: MDTD(Multi-Dictionary Decomposition)のためのフレームワークを提案する。
我々は、完全な入力と入力の両方を欠落した値で処理する、MDTDの一般的な最適化アルゴリズムを導出する。
何十億ものテンソルの欠落した値を、最先端の競合相手よりも正確かつ精巧に説明することができる。
- 参考スコア(独自算出の注目度): 5.733331864416094
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tensor decomposition methods are popular tools for analysis of multi-way
datasets from social media, healthcare, spatio-temporal domains, and others.
Widely adopted models such as Tucker and canonical polyadic decomposition (CPD)
follow a data-driven philosophy: they decompose a tensor into factors that
approximate the observed data well. In some cases side information is available
about the tensor modes. For example, in a temporal user-item purchases tensor a
user influence graph, an item similarity graph, and knowledge about seasonality
or trends in the temporal mode may be available. Such side information may
enable more succinct and interpretable tensor decomposition models and improved
quality in downstream tasks.
We propose a framework for Multi-Dictionary Tensor Decomposition (MDTD) which
takes advantage of prior structural information about tensor modes in the form
of coding dictionaries to obtain sparsely encoded tensor factors. We derive a
general optimization algorithm for MDTD that handles both complete input and
input with missing values. Our framework handles large sparse tensors typical
to many real-world application domains. We demonstrate MDTD's utility via
experiments with both synthetic and real-world datasets. It learns more concise
models than dictionary-free counterparts and improves (i) reconstruction
quality ($60\%$ fewer non-zero coefficients coupled with smaller error); (ii)
missing values imputation quality (two-fold MSE reduction with up to orders of
magnitude time savings) and (iii) the estimation of the tensor rank. MDTD's
quality improvements do not come with a running time premium: it can decompose
$19GB$ datasets in less than a minute. It can also impute missing values in
sparse billion-entry tensors more accurately and scalably than state-of-the-art
competitors.
- Abstract(参考訳): テンソル分解法は、ソーシャルメディア、医療、時空間領域などのマルチウェイデータセットを解析するための一般的なツールである。
タッカーや正準多進分解(CPD)のような広く採用されているモデルは、テンソルを観測されたデータをよく近似する因子に分解するという、データ駆動の哲学に従っている。
場合によっては、テンソルモードに関するサイド情報が得られる。
例えば、テンポラリユーザ項目購入テンソルでは、ユーザ影響グラフ、アイテム類似度グラフ、および、テンポラリモードにおける季節性またはトレンドに関する知識が利用可能である。
このようなサイド情報は、より簡潔で解釈可能なテンソル分解モデルを可能にし、下流タスクの品質を向上させることができる。
符号化辞書の形式でテンソルモードに関する事前構造情報を利用して,疎符号化テンソル係数を求める多次元テンソル分解(MDTD)の枠組みを提案する。
我々は,mdtdの一般最適化アルゴリズムを導出し,完全入力と入力の両方を欠いた値で処理する。
我々のフレームワークは、多くの現実世界のアプリケーションドメインに典型的な大きなスパーステンソルを扱う。
我々は合成データセットと実世界のデータセットの両方を用いた実験を通じてmdtdの有用性を実証する。
辞書のないものよりも簡潔なモデルを学び、改良する
(i)復元品質(非ゼロ係数を少なくし、誤差を小さくする)
(ii)欠落値の含意品質(最大桁の時間節約による2倍のmse削減)
(iii)テンソルランクの推定。
MDTDの品質改善にはランニングタイムプレミアムがない。1分以内で19GBのデータセットを分解できる。
また、最先端の競争相手よりも、数十億のテンソルの不足値をより正確かつスカラに引き起こすこともできる。
関連論文リスト
- Few-Shot Non-Parametric Learning with Deep Latent Variable Model [50.746273235463754]
遅延変数を用いた圧縮による非パラメトリック学習(NPC-LV)を提案する。
NPC-LVは、ラベルなしデータが多いがラベル付きデータはほとんどないデータセットの学習フレームワークである。
我々は,NPC-LVが低データ構造における画像分類における3つのデータセットの教師あり手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-23T09:35:03Z) - FRAPPE: $\underline{\text{F}}$ast $\underline{\text{Ra}}$nk $\underline{\text{App}}$roximation with $\underline{\text{E}}$xplainable Features for Tensors [5.39764619690516]
FRAPPEは、CDDを計算することなくテンソルの正準ランクを推定する最初の方法である。
最高のパフォーマンスのベースラインよりも24倍以上高速で、合成データセット上でMAPEが10%改善されている。
論文 参考訳(メタデータ) (2022-06-19T03:19:59Z) - Truncated tensor Schatten p-norm based approach for spatiotemporal
traffic data imputation with complicated missing patterns [77.34726150561087]
本研究は, モード駆動繊維による3症例の欠失を含む, 4症例の欠失パターンについて紹介する。
本モデルでは, 目的関数の非性にもかかわらず, 乗算器の交互データ演算法を統合することにより, 最適解を導出する。
論文 参考訳(メタデータ) (2022-05-19T08:37:56Z) - Augmented Tensor Decomposition with Stochastic Optimization [46.16865811396394]
実世界のテンソルデータは、通常高次で、数百万から数十億のエントリを持つ大きな次元を持つ。
テンソル全体を従来のアルゴリズムで分解するのは高価である。
本稿では、データ拡張を効果的に取り入れて下流の分類を向上する拡張テンソル分解を提案する。
論文 参考訳(メタデータ) (2021-06-15T06:29:05Z) - MTC: Multiresolution Tensor Completion from Partial and Coarse
Observations [49.931849672492305]
既存の完備化の定式化は、主に1つのテンソルからの部分的な観測に依存する。
この問題を解決するために,効率的なマルチレゾリューション・コンプリート・モデル(MTC)を提案する。
論文 参考訳(メタデータ) (2021-06-14T02:20:03Z) - Cherry-Picking Gradients: Learning Low-Rank Embeddings of Visual Data
via Differentiable Cross-Approximation [53.95297550117153]
本稿では,大規模な視覚データテンソルの処理を行うエンドツーエンドのトレーニング可能なフレームワークを提案する。
提案手法は大規模多次元グリッドデータや,大規模受容領域上のコンテキストを必要とするタスクに特に有用である。
論文 参考訳(メタデータ) (2021-05-29T08:39:57Z) - Multi-version Tensor Completion for Time-delayed Spatio-temporal Data [50.762087239885936]
実世界の時間データは、様々なデータ読み込み遅延のために不完全または不正確な場合が多い。
経時的に更新を予測するための低ランクテンソルモデルを提案する。
最良基準法に比べて最大27.2%低いルート平均二乗誤差が得られる。
論文 参考訳(メタデータ) (2021-05-11T19:55:56Z) - Low-Rank and Sparse Enhanced Tucker Decomposition for Tensor Completion [3.498620439731324]
テンソル完備化のために,低ランクかつスパースに拡張されたタッカー分解モデルを導入する。
我々のモデルはスパースコアテンソルを促進するためにスパース正規化項を持ち、テンソルデータ圧縮に有用である。
テンソルに出現する潜在的な周期性と固有相関特性を利用するので,本モデルでは様々な種類の実世界のデータセットを扱うことが可能である。
論文 参考訳(メタデータ) (2020-10-01T12:45:39Z) - Sparse and Low-Rank High-Order Tensor Regression via Parallel Proximal
Method [6.381138694845438]
高次構造を持つ大規模データに対するスパース・ローランク回帰モデルを提案する。
我々のモデルはテンソル係数の空間性と低ランク性を強制する。
我々のモデルの予測は、ビデオデータセットに意味のある解釈を示す。
論文 参考訳(メタデータ) (2019-11-29T06:25:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。