論文の概要: Distributed Non-Negative Tensor Train Decomposition
- arxiv url: http://arxiv.org/abs/2008.01340v1
- Date: Tue, 4 Aug 2020 05:35:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 01:07:31.917940
- Title: Distributed Non-Negative Tensor Train Decomposition
- Title(参考訳): 分散非負性テンソル列車分解
- Authors: Manish Bhattarai, Gopinath Chennupati, Erik Skau, Raviteja Vangara,
Hirsto Djidjev, Boian Alexandrov
- Abstract要約: 高次元データは多次元配列、別名テンソルとして表される。
テンソルに潜伏構造(直接観測できない)が存在することは、データのユニークな表現と圧縮を可能にする。
分散非負のテンソルトレインを導入し、そのスケーラビリティと、合成および実世界のビッグデータ上での圧縮を実証する。
- 参考スコア(独自算出の注目度): 3.2264685979617655
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The era of exascale computing opens new venues for innovations and
discoveries in many scientific, engineering, and commercial fields. However,
with the exaflops also come the extra-large high-dimensional data generated by
high-performance computing. High-dimensional data is presented as
multidimensional arrays, aka tensors. The presence of latent (not directly
observable) structures in the tensor allows a unique representation and
compression of the data by classical tensor factorization techniques. However,
the classical tensor methods are not always stable or they can be exponential
in their memory requirements, which makes them not suitable for
high-dimensional tensors. Tensor train (TT) is a state-of-the-art tensor
network introduced for factorization of high-dimensional tensors. TT transforms
the initial high-dimensional tensor in a network of three-dimensional tensors
that requires only a linear storage. Many real-world data, such as, density,
temperature, population, probability, etc., are non-negative and for an easy
interpretation, the algorithms preserving non-negativity are preferred. Here,
we introduce a distributed non-negative tensor-train and demonstrate its
scalability and the compression on synthetic and real-world big datasets.
- Abstract(参考訳): エクサスケールコンピューティングの時代は、多くの科学、工学、商業分野における革新と発見のための新しい場所を開く。
しかしexaflopsには、高性能コンピューティングによって生成される超大容量の高次元データも含まれる。
高次元データは多次元配列、別名テンソルとして表される。
テンソルにおける潜在構造(直接観測できない)の存在は、古典的なテンソル分解技術によってデータの一意的な表現と圧縮を可能にする。
しかしながら、古典テンソル法は必ずしも安定ではないし、あるいはそのメモリ要件において指数関数的でもあるため、高次元テンソルには適さない。
テンソルトレイン(TT)は、高次元テンソルの分解のために導入された最先端テンソルネットワークである。
tt は、線形保存のみを必要とする三次元テンソルのネットワークにおける初期高次元テンソルを変換する。
密度、温度、人口、確率などの実世界のデータの多くは非負であり、容易に解釈できるため、非負性を保存するアルゴリズムが好ましい。
本稿では,分散非負のテンソルトレインを導入し,そのスケーラビリティと合成および実世界のビッグデータの圧縮を実証する。
関連論文リスト
- "Lossless" Compression of Deep Neural Networks: A High-dimensional
Neural Tangent Kernel Approach [49.744093838327615]
広帯域かつ完全接続型エンフディープニューラルネットに対する新しい圧縮手法を提案する。
提案手法の利点を支えるために, 合成データと実世界のデータの両方の実験を行った。
論文 参考訳(メタデータ) (2024-03-01T03:46:28Z) - Scalable CP Decomposition for Tensor Learning using GPU Tensor Cores [47.87810316745786]
本研究では,エクサスケールテンソル分解を支援する圧縮型テンソル分解フレームワークを提案する。
ベースラインと比較すると、エクスカスケール・テンソルは8000倍のテンソルをサポートし、スピードアップは6.95倍である。
また,本手法を遺伝子解析とテンソル層ニューラルネットワークを含む実世界の2つの応用に適用する。
論文 参考訳(メタデータ) (2023-11-22T21:04:59Z) - The Tensor as an Informational Resource [1.3044677039636754]
テンソル(英: tensor)は、データの保存、計算関係のエンコード、量子絡み合いの表現に使用できる数列である。
テンソル上の情報理論的に構築された事前順序の族を提案し、テンソルを互いに比較し、それらの間の変換の存在を評価する。
論文 参考訳(メタデータ) (2023-11-03T18:47:39Z) - Low-Rank Tensor Function Representation for Multi-Dimensional Data
Recovery [52.21846313876592]
低ランクテンソル関数表現(LRTFR)は、無限解像度でメッシュグリッドを超えてデータを連続的に表現することができる。
テンソル関数に対する2つの基本的な概念、すなわちテンソル関数ランクとローランクテンソル関数分解を開発する。
提案手法は,最先端手法と比較して,提案手法の優越性と汎用性を裏付けるものである。
論文 参考訳(メタデータ) (2022-12-01T04:00:38Z) - Sample Efficient Learning of Factored Embeddings of Tensor Fields [3.0072182643196217]
我々は非同型表現を用いた近似フルランクテンソルスケッチとコンパクトテンソルスケッチを学習する。
元のテンソルフィールド上の全ての情報クエリと後処理は、より効率的に実現できるようになった。
論文 参考訳(メタデータ) (2022-09-01T11:32:00Z) - Multi-version Tensor Completion for Time-delayed Spatio-temporal Data [50.762087239885936]
実世界の時間データは、様々なデータ読み込み遅延のために不完全または不正確な場合が多い。
経時的に更新を予測するための低ランクテンソルモデルを提案する。
最良基準法に比べて最大27.2%低いルート平均二乗誤差が得られる。
論文 参考訳(メタデータ) (2021-05-11T19:55:56Z) - Low-Rank and Sparse Enhanced Tucker Decomposition for Tensor Completion [3.498620439731324]
テンソル完備化のために,低ランクかつスパースに拡張されたタッカー分解モデルを導入する。
我々のモデルはスパースコアテンソルを促進するためにスパース正規化項を持ち、テンソルデータ圧縮に有用である。
テンソルに出現する潜在的な周期性と固有相関特性を利用するので,本モデルでは様々な種類の実世界のデータセットを扱うことが可能である。
論文 参考訳(メタデータ) (2020-10-01T12:45:39Z) - T-Basis: a Compact Representation for Neural Networks [89.86997385827055]
テンソルの集合をコンパクトに表現するための概念である T-Basis をニューラルネットワークでよく見られる任意の形状で導入する。
ニューラルネットワーク圧縮の課題に対する提案手法の評価を行い, 許容性能低下時に高い圧縮速度に達することを示す。
論文 参考訳(メタデータ) (2020-07-13T19:03:22Z) - Anomaly Detection with Tensor Networks [2.3895981099137535]
テンソルネットワークのメモリと計算効率を利用して、原特徴数の次元指数で空間上の線形変換を学習する。
画像の局所性を利用していないにもかかわらず、画像データセット上で競合する結果を生成する。
論文 参考訳(メタデータ) (2020-06-03T20:41:30Z) - Spectral Learning on Matrices and Tensors [74.88243719463053]
テンソル分解は行列法で欠落する潜伏効果を拾うことができることを示す。
また,効率的なテンソル分解法を設計するための計算手法についても概説する。
論文 参考訳(メタデータ) (2020-04-16T22:53:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。