論文の概要: Learning Generative Embeddings using an Optimal Subsampling Policy for
Tensor Sketching
- arxiv url: http://arxiv.org/abs/2209.00372v1
- Date: Thu, 1 Sep 2022 11:32:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-02 14:23:14.042693
- Title: Learning Generative Embeddings using an Optimal Subsampling Policy for
Tensor Sketching
- Title(参考訳): テンソルスケッチのための最適サブサンプリングポリシーを用いた学習生成埋め込み
- Authors: Chandrajit Bajaj, Taemin Heo, Rochan Avlur
- Abstract要約: 我々は非同型表現を用いた近似フルランクテンソルスケッチとコンパクトテンソルスケッチを学習する。
その後の全ての情報クエリは、生成スケッチ上で高い精度で実行される。
- 参考スコア(独自算出の注目度): 2.141079906482723
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data tensors of orders 3 and greater are routinely being generated. These
data collections are increasingly huge and growing. They are either tensor
fields (e.g., images, videos, geographic data) in which each location of data
contains important information or permutation invariant general tensors (e.g.,
unsupervised latent space learning, graph network analysis, recommendation
systems, etc.). Directly accessing such large data tensor collections for
information has become increasingly prohibitive. We learn approximate full-rank
and compact tensor sketches with decompositive representations providing
compact space, time and spectral embeddings of both tensor fields (P-SCT) and
general tensors (P-SCT-Permute). All subsequent information querying with high
accuracy is performed on the generative sketches. We produce optimal rank-r
Tucker decompositions of arbitrary order data tensors by building tensor
sketches from a sample-efficient sub-sampling of tensor slices. Our sample
efficient policy is learned via an adaptable stochastic Thompson sampling using
Dirichlet distributions with conjugate priors.
- Abstract(参考訳): 順序 3 以上のデータテンソルが日常的に生成される。
これらのデータ収集はますます大きくなりつつある。
それらはテンソル場(画像、ビデオ、地理的データなど)であり、データのそれぞれの位置は重要な情報や置換不変な一般的なテンソル(例えば、教師なしラテント空間学習、グラフネットワーク解析、レコメンデーションシステムなど)を含む。
このような大規模なデータテンソルコレクションに直接アクセスすることは、ますます禁じられている。
テンソル場 (P-SCT) と一般テンソル (P-SCT-Permute) のコンパクトな空間, 時間, スペクトル埋め込みを提供する非共有表現を用いた近似フルランクおよびコンパクトテンソルスケッチを学習する。
その後のすべての情報クエリを高精度に生成スケッチ上で行う。
テンソルスライスのサンプル効率サブサンプリングからテンソルスケッチを構築することにより、任意の順序データテンソルの最適ランクrタッカー分解を生成する。
提案手法は,共役前駆体を用いたディリクレ分布を用いた適応確率トンプソンサンプリングにより学習した。
関連論文リスト
- Low-Rank Tensor Function Representation for Multi-Dimensional Data
Recovery [52.21846313876592]
低ランクテンソル関数表現(LRTFR)は、無限解像度でメッシュグリッドを超えてデータを連続的に表現することができる。
テンソル関数に対する2つの基本的な概念、すなわちテンソル関数ランクとローランクテンソル関数分解を開発する。
提案手法は,最先端手法と比較して,提案手法の優越性と汎用性を裏付けるものである。
論文 参考訳(メタデータ) (2022-12-01T04:00:38Z) - Few-Shot Non-Parametric Learning with Deep Latent Variable Model [50.746273235463754]
遅延変数を用いた圧縮による非パラメトリック学習(NPC-LV)を提案する。
NPC-LVは、ラベルなしデータが多いがラベル付きデータはほとんどないデータセットの学習フレームワークである。
我々は,NPC-LVが低データ構造における画像分類における3つのデータセットの教師あり手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-23T09:35:03Z) - 2D+3D facial expression recognition via embedded tensor manifold
regularization [16.98176664818354]
2D+3次元表情認識(FERETMR)のための埋め込みテンソル多様体正規化による新しい手法を提案する。
定常点の観点から一階最適条件を確立し、収束解析によるブロック座標降下(BCD)アルゴリズムを設計する。
BU-3DFEデータベースとBosphorusデータベースの数値計算結果から,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-01-29T06:11:00Z) - Augmented Tensor Decomposition with Stochastic Optimization [46.16865811396394]
実世界のテンソルデータは、通常高次で、数百万から数十億のエントリを持つ大きな次元を持つ。
テンソル全体を従来のアルゴリズムで分解するのは高価である。
本稿では、データ拡張を効果的に取り入れて下流の分類を向上する拡張テンソル分解を提案する。
論文 参考訳(メタデータ) (2021-06-15T06:29:05Z) - Cherry-Picking Gradients: Learning Low-Rank Embeddings of Visual Data
via Differentiable Cross-Approximation [53.95297550117153]
本稿では,大規模な視覚データテンソルの処理を行うエンドツーエンドのトレーニング可能なフレームワークを提案する。
提案手法は大規模多次元グリッドデータや,大規模受容領域上のコンテキストを必要とするタスクに特に有用である。
論文 参考訳(メタデータ) (2021-05-29T08:39:57Z) - Multi-version Tensor Completion for Time-delayed Spatio-temporal Data [50.762087239885936]
実世界の時間データは、様々なデータ読み込み遅延のために不完全または不正確な場合が多い。
経時的に更新を予測するための低ランクテンソルモデルを提案する。
最良基準法に比べて最大27.2%低いルート平均二乗誤差が得られる。
論文 参考訳(メタデータ) (2021-05-11T19:55:56Z) - Low-Rank and Sparse Enhanced Tucker Decomposition for Tensor Completion [3.498620439731324]
テンソル完備化のために,低ランクかつスパースに拡張されたタッカー分解モデルを導入する。
我々のモデルはスパースコアテンソルを促進するためにスパース正規化項を持ち、テンソルデータ圧縮に有用である。
テンソルに出現する潜在的な周期性と固有相関特性を利用するので,本モデルでは様々な種類の実世界のデータセットを扱うことが可能である。
論文 参考訳(メタデータ) (2020-10-01T12:45:39Z) - Distributed Non-Negative Tensor Train Decomposition [3.2264685979617655]
高次元データは多次元配列、別名テンソルとして表される。
テンソルに潜伏構造(直接観測できない)が存在することは、データのユニークな表現と圧縮を可能にする。
分散非負のテンソルトレインを導入し、そのスケーラビリティと、合成および実世界のビッグデータ上での圧縮を実証する。
論文 参考訳(メタデータ) (2020-08-04T05:35:57Z) - T-Basis: a Compact Representation for Neural Networks [89.86997385827055]
テンソルの集合をコンパクトに表現するための概念である T-Basis をニューラルネットワークでよく見られる任意の形状で導入する。
ニューラルネットワーク圧縮の課題に対する提案手法の評価を行い, 許容性能低下時に高い圧縮速度に達することを示す。
論文 参考訳(メタデータ) (2020-07-13T19:03:22Z) - Spatio-Temporal Tensor Sketching via Adaptive Sampling [15.576219771198389]
適応型サンプリングを用いてテンソルスライスを時間的ストリーミング形式で圧縮する新しいテンソル分解フレームワークであるSkeTenSmoothを提案する。
ニューヨーク市のYellow Taxiデータによる実験によると、SkeTenSmoothはメモリコストとランダムサンプリング率を大幅に削減する。
論文 参考訳(メタデータ) (2020-06-21T23:55:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。