論文の概要: Distributed Non-Negative Tensor Train Decomposition
- arxiv url: http://arxiv.org/abs/2008.01340v1
- Date: Tue, 4 Aug 2020 05:35:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 01:07:31.917940
- Title: Distributed Non-Negative Tensor Train Decomposition
- Title(参考訳): 分散非負性テンソル列車分解
- Authors: Manish Bhattarai, Gopinath Chennupati, Erik Skau, Raviteja Vangara,
Hirsto Djidjev, Boian Alexandrov
- Abstract要約: 高次元データは多次元配列、別名テンソルとして表される。
テンソルに潜伏構造(直接観測できない)が存在することは、データのユニークな表現と圧縮を可能にする。
分散非負のテンソルトレインを導入し、そのスケーラビリティと、合成および実世界のビッグデータ上での圧縮を実証する。
- 参考スコア(独自算出の注目度): 3.2264685979617655
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The era of exascale computing opens new venues for innovations and
discoveries in many scientific, engineering, and commercial fields. However,
with the exaflops also come the extra-large high-dimensional data generated by
high-performance computing. High-dimensional data is presented as
multidimensional arrays, aka tensors. The presence of latent (not directly
observable) structures in the tensor allows a unique representation and
compression of the data by classical tensor factorization techniques. However,
the classical tensor methods are not always stable or they can be exponential
in their memory requirements, which makes them not suitable for
high-dimensional tensors. Tensor train (TT) is a state-of-the-art tensor
network introduced for factorization of high-dimensional tensors. TT transforms
the initial high-dimensional tensor in a network of three-dimensional tensors
that requires only a linear storage. Many real-world data, such as, density,
temperature, population, probability, etc., are non-negative and for an easy
interpretation, the algorithms preserving non-negativity are preferred. Here,
we introduce a distributed non-negative tensor-train and demonstrate its
scalability and the compression on synthetic and real-world big datasets.
- Abstract(参考訳): エクサスケールコンピューティングの時代は、多くの科学、工学、商業分野における革新と発見のための新しい場所を開く。
しかしexaflopsには、高性能コンピューティングによって生成される超大容量の高次元データも含まれる。
高次元データは多次元配列、別名テンソルとして表される。
テンソルにおける潜在構造(直接観測できない)の存在は、古典的なテンソル分解技術によってデータの一意的な表現と圧縮を可能にする。
しかしながら、古典テンソル法は必ずしも安定ではないし、あるいはそのメモリ要件において指数関数的でもあるため、高次元テンソルには適さない。
テンソルトレイン(TT)は、高次元テンソルの分解のために導入された最先端テンソルネットワークである。
tt は、線形保存のみを必要とする三次元テンソルのネットワークにおける初期高次元テンソルを変換する。
密度、温度、人口、確率などの実世界のデータの多くは非負であり、容易に解釈できるため、非負性を保存するアルゴリズムが好ましい。
本稿では,分散非負のテンソルトレインを導入し,そのスケーラビリティと合成および実世界のビッグデータの圧縮を実証する。
関連論文リスト
- Low-Rank Tensor Function Representation for Multi-Dimensional Data
Recovery [52.21846313876592]
低ランクテンソル関数表現(LRTFR)は、無限解像度でメッシュグリッドを超えてデータを連続的に表現することができる。
テンソル関数に対する2つの基本的な概念、すなわちテンソル関数ランクとローランクテンソル関数分解を開発する。
提案手法は,最先端手法と比較して,提案手法の優越性と汎用性を裏付けるものである。
論文 参考訳(メタデータ) (2022-12-01T04:00:38Z) - Tensor networks in machine learning [0.0]
テンソルネットワーク(テンソルネットワーク)は、大規模なデータ配列を表現および近似するために用いられる分解である。
テンソルネットワークと機械学習の融合は自然である。
ここで、ネットワークパラメータを調整して、データセットを学習または分類する。
論文 参考訳(メタデータ) (2022-07-06T18:00:00Z) - Lower and Upper Bounds on the VC-Dimension of Tensor Network Models [8.997952791113232]
ネットワーク法は凝縮物質物理学の進歩の重要な要素である。
これらは指数関数的に大きな特徴空間で線形モデルを効率的に学習するのに使うことができる。
本研究では,大きなテンソルネットワークモデルのVC次元と擬次元の上下境界を導出する。
論文 参考訳(メタデータ) (2021-06-22T14:39:25Z) - Augmented Tensor Decomposition with Stochastic Optimization [46.16865811396394]
実世界のテンソルデータは、通常高次で、数百万から数十億のエントリを持つ大きな次元を持つ。
テンソル全体を従来のアルゴリズムで分解するのは高価である。
本稿では、データ拡張を効果的に取り入れて下流の分類を向上する拡張テンソル分解を提案する。
論文 参考訳(メタデータ) (2021-06-15T06:29:05Z) - Multi-version Tensor Completion for Time-delayed Spatio-temporal Data [50.762087239885936]
実世界の時間データは、様々なデータ読み込み遅延のために不完全または不正確な場合が多い。
経時的に更新を予測するための低ランクテンソルモデルを提案する。
最良基準法に比べて最大27.2%低いルート平均二乗誤差が得られる。
論文 参考訳(メタデータ) (2021-05-11T19:55:56Z) - A Local Similarity-Preserving Framework for Nonlinear Dimensionality
Reduction with Neural Networks [56.068488417457935]
本稿では,Vec2vecという新しい局所非線形手法を提案する。
ニューラルネットワークを訓練するために、マトリックスの近傍類似度グラフを構築し、データポイントのコンテキストを定義します。
8つの実データセットにおけるデータ分類とクラスタリングの実験により、Vec2vecは統計仮説テストにおける古典的な次元削減法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-03-10T23:10:47Z) - Low-Rank and Sparse Enhanced Tucker Decomposition for Tensor Completion [3.498620439731324]
テンソル完備化のために,低ランクかつスパースに拡張されたタッカー分解モデルを導入する。
我々のモデルはスパースコアテンソルを促進するためにスパース正規化項を持ち、テンソルデータ圧縮に有用である。
テンソルに出現する潜在的な周期性と固有相関特性を利用するので,本モデルでは様々な種類の実世界のデータセットを扱うことが可能である。
論文 参考訳(メタデータ) (2020-10-01T12:45:39Z) - T-Basis: a Compact Representation for Neural Networks [89.86997385827055]
テンソルの集合をコンパクトに表現するための概念である T-Basis をニューラルネットワークでよく見られる任意の形状で導入する。
ニューラルネットワーク圧縮の課題に対する提案手法の評価を行い, 許容性能低下時に高い圧縮速度に達することを示す。
論文 参考訳(メタデータ) (2020-07-13T19:03:22Z) - Anomaly Detection with Tensor Networks [2.3895981099137535]
テンソルネットワークのメモリと計算効率を利用して、原特徴数の次元指数で空間上の線形変換を学習する。
画像の局所性を利用していないにもかかわらず、画像データセット上で競合する結果を生成する。
論文 参考訳(メタデータ) (2020-06-03T20:41:30Z) - Spectral Learning on Matrices and Tensors [74.88243719463053]
テンソル分解は行列法で欠落する潜伏効果を拾うことができることを示す。
また,効率的なテンソル分解法を設計するための計算手法についても概説する。
論文 参考訳(メタデータ) (2020-04-16T22:53:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。