論文の概要: Learning Generative Embeddings using an Optimal Subsampling Policy for
Tensor Sketching
- arxiv url: http://arxiv.org/abs/2209.00372v1
- Date: Thu, 1 Sep 2022 11:32:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-02 14:23:14.042693
- Title: Learning Generative Embeddings using an Optimal Subsampling Policy for
Tensor Sketching
- Title(参考訳): テンソルスケッチのための最適サブサンプリングポリシーを用いた学習生成埋め込み
- Authors: Chandrajit Bajaj, Taemin Heo, Rochan Avlur
- Abstract要約: 我々は非同型表現を用いた近似フルランクテンソルスケッチとコンパクトテンソルスケッチを学習する。
その後の全ての情報クエリは、生成スケッチ上で高い精度で実行される。
- 参考スコア(独自算出の注目度): 2.141079906482723
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data tensors of orders 3 and greater are routinely being generated. These
data collections are increasingly huge and growing. They are either tensor
fields (e.g., images, videos, geographic data) in which each location of data
contains important information or permutation invariant general tensors (e.g.,
unsupervised latent space learning, graph network analysis, recommendation
systems, etc.). Directly accessing such large data tensor collections for
information has become increasingly prohibitive. We learn approximate full-rank
and compact tensor sketches with decompositive representations providing
compact space, time and spectral embeddings of both tensor fields (P-SCT) and
general tensors (P-SCT-Permute). All subsequent information querying with high
accuracy is performed on the generative sketches. We produce optimal rank-r
Tucker decompositions of arbitrary order data tensors by building tensor
sketches from a sample-efficient sub-sampling of tensor slices. Our sample
efficient policy is learned via an adaptable stochastic Thompson sampling using
Dirichlet distributions with conjugate priors.
- Abstract(参考訳): 順序 3 以上のデータテンソルが日常的に生成される。
これらのデータ収集はますます大きくなりつつある。
それらはテンソル場(画像、ビデオ、地理的データなど)であり、データのそれぞれの位置は重要な情報や置換不変な一般的なテンソル(例えば、教師なしラテント空間学習、グラフネットワーク解析、レコメンデーションシステムなど)を含む。
このような大規模なデータテンソルコレクションに直接アクセスすることは、ますます禁じられている。
テンソル場 (P-SCT) と一般テンソル (P-SCT-Permute) のコンパクトな空間, 時間, スペクトル埋め込みを提供する非共有表現を用いた近似フルランクおよびコンパクトテンソルスケッチを学習する。
その後のすべての情報クエリを高精度に生成スケッチ上で行う。
テンソルスライスのサンプル効率サブサンプリングからテンソルスケッチを構築することにより、任意の順序データテンソルの最適ランクrタッカー分解を生成する。
提案手法は,共役前駆体を用いたディリクレ分布を用いた適応確率トンプソンサンプリングにより学習した。
関連論文リスト
- Unlocking Data-free Low-bit Quantization with Matrix Decomposition for KV Cache Compression [87.5604418100301]
キー値(KV)キャッシングは,大規模言語モデルの推論を高速化する重要な手法である。
既存の手法はしばしば精度を損なうか、キャリブレーションのために余分なデータを必要とする。
テンソル分解法に基づく新しいデータフリー低ビット量子化手法である textbfDecoQuant を導入する。
論文 参考訳(メタデータ) (2024-05-21T08:35:10Z) - Scalable CP Decomposition for Tensor Learning using GPU Tensor Cores [47.87810316745786]
本研究では,エクサスケールテンソル分解を支援する圧縮型テンソル分解フレームワークを提案する。
ベースラインと比較すると、エクスカスケール・テンソルは8000倍のテンソルをサポートし、スピードアップは6.95倍である。
また,本手法を遺伝子解析とテンソル層ニューラルネットワークを含む実世界の2つの応用に適用する。
論文 参考訳(メタデータ) (2023-11-22T21:04:59Z) - Multidimensional Data Analysis Based on Block Convolutional Tensor
Decomposition [1.1674893622721483]
我々は、反射境界条件を持つブロック畳み込みに基づく$star_ctext-Product$と呼ばれる新しいテンソルテンソル製品を提案する。
また、任意の順序テンソルに対して$star_ctext-Product$に基づくテンソル分解を導入する。
t-SVDと比較して、新しい分解は複雑さが低く、分類や圧縮などの応用において、より高品質な結果が得られることを示す実験結果が得られた。
論文 参考訳(メタデータ) (2023-08-03T13:58:21Z) - Low-Rank Tensor Function Representation for Multi-Dimensional Data
Recovery [52.21846313876592]
低ランクテンソル関数表現(LRTFR)は、無限解像度でメッシュグリッドを超えてデータを連続的に表現することができる。
テンソル関数に対する2つの基本的な概念、すなわちテンソル関数ランクとローランクテンソル関数分解を開発する。
提案手法は,最先端手法と比較して,提案手法の優越性と汎用性を裏付けるものである。
論文 参考訳(メタデータ) (2022-12-01T04:00:38Z) - Influence-guided Data Augmentation for Neural Tensor Completion [21.625908410873944]
本稿では,ニューラルテンソル完了法の予測精度を高める汎用データ拡張フレームワークであるDAINを提案する。
本稿では、DAINが、神経テンソル完了の計算精度を高めるという点で、すべてのデータ拡張ベースラインより優れていることを示す。
論文 参考訳(メタデータ) (2021-08-23T15:38:59Z) - MTC: Multiresolution Tensor Completion from Partial and Coarse
Observations [49.931849672492305]
既存の完備化の定式化は、主に1つのテンソルからの部分的な観測に依存する。
この問題を解決するために,効率的なマルチレゾリューション・コンプリート・モデル(MTC)を提案する。
論文 参考訳(メタデータ) (2021-06-14T02:20:03Z) - Cherry-Picking Gradients: Learning Low-Rank Embeddings of Visual Data
via Differentiable Cross-Approximation [53.95297550117153]
本稿では,大規模な視覚データテンソルの処理を行うエンドツーエンドのトレーニング可能なフレームワークを提案する。
提案手法は大規模多次元グリッドデータや,大規模受容領域上のコンテキストを必要とするタスクに特に有用である。
論文 参考訳(メタデータ) (2021-05-29T08:39:57Z) - Multi-version Tensor Completion for Time-delayed Spatio-temporal Data [50.762087239885936]
実世界の時間データは、様々なデータ読み込み遅延のために不完全または不正確な場合が多い。
経時的に更新を予測するための低ランクテンソルモデルを提案する。
最良基準法に比べて最大27.2%低いルート平均二乗誤差が得られる。
論文 参考訳(メタデータ) (2021-05-11T19:55:56Z) - Low-Rank and Sparse Enhanced Tucker Decomposition for Tensor Completion [3.498620439731324]
テンソル完備化のために,低ランクかつスパースに拡張されたタッカー分解モデルを導入する。
我々のモデルはスパースコアテンソルを促進するためにスパース正規化項を持ち、テンソルデータ圧縮に有用である。
テンソルに出現する潜在的な周期性と固有相関特性を利用するので,本モデルでは様々な種類の実世界のデータセットを扱うことが可能である。
論文 参考訳(メタデータ) (2020-10-01T12:45:39Z) - Distributed Non-Negative Tensor Train Decomposition [3.2264685979617655]
高次元データは多次元配列、別名テンソルとして表される。
テンソルに潜伏構造(直接観測できない)が存在することは、データのユニークな表現と圧縮を可能にする。
分散非負のテンソルトレインを導入し、そのスケーラビリティと、合成および実世界のビッグデータ上での圧縮を実証する。
論文 参考訳(メタデータ) (2020-08-04T05:35:57Z) - Spatio-Temporal Tensor Sketching via Adaptive Sampling [15.576219771198389]
適応型サンプリングを用いてテンソルスライスを時間的ストリーミング形式で圧縮する新しいテンソル分解フレームワークであるSkeTenSmoothを提案する。
ニューヨーク市のYellow Taxiデータによる実験によると、SkeTenSmoothはメモリコストとランダムサンプリング率を大幅に削減する。
論文 参考訳(メタデータ) (2020-06-21T23:55:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。