論文の概要: Stack operation of tensor networks
- arxiv url: http://arxiv.org/abs/2203.16338v1
- Date: Mon, 28 Mar 2022 12:45:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-01 11:26:43.693685
- Title: Stack operation of tensor networks
- Title(参考訳): テンソルネットワークのスタック操作
- Authors: Tianning Zhang, L. K. Ang, Tianqi Chen, Bo Yang, Erping Li
- Abstract要約: 本稿では,テンソルネットワークスタックアプローチに対する数学的に厳密な定義を提案する。
本稿では、行列製品状態に基づく機械学習を例として、主なアイデアを例に挙げる。
- 参考スコア(独自算出の注目度): 10.86105335102537
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The tensor network, as a facterization of tensors, aims at performing the
operations that are common for normal tensors, such as addition, contraction
and stacking. However, due to its non-unique network structure, only the tensor
network contraction is so far well defined. In this paper, we propose a
mathematically rigorous definition for the tensor network stack approach, that
compress a large amount of tensor networks into a single one without changing
their structures and configurations. We illustrate the main ideas with the
matrix product states based machine learning as an example. Our results are
compared with the for loop and the efficient coding method on both CPU and GPU.
- Abstract(参考訳): テンソルネットワークは、テンソルの事実化として、加算、縮小、積み重ねなどの通常のテンソルに共通な演算を実行することを目的としている。
しかし、その非単調なネットワーク構造のため、テンソルネットワークの収縮のみが十分に定義されている。
本稿では,その構造や構成を変更することなく,大量のテンソルネットワークを単一のネットワークに圧縮する,テンソルネットワークスタックアプローチの数学的に厳密な定義を提案する。
本稿では、行列製品状態に基づく機械学習を例として、主なアイデアを例に挙げる。
本結果は,CPUおよびGPU上でのforループと効率的な符号化手法と比較した。
関連論文リスト
- Compressing multivariate functions with tree tensor networks [0.0]
1次元テンソルネットワークは、連続関数の数値アンザッツとしてますます利用されている。
構造木テンソルネットワークが、一般的に使用されるテンソルトレインよりもはるかに効率的なアンザッツを提供することを示す。
論文 参考訳(メタデータ) (2024-10-04T16:20:52Z) - An introduction to graphical tensor notation for mechanistic
interpretability [0.0]
テンソル間でどの操作が行われているのかを混乱させるのは容易です。
この文書の前半は表記法を導入し、いくつかの分解に適用する。
後半は、言語モデルを機械的に理解するためのいくつかの基本的なアプローチに適用します。
論文 参考訳(メタデータ) (2024-02-02T02:56:01Z) - Symbolically integrating tensor networks over various random tensors by
the second version of Python RTNI [0.5439020425818999]
我々は、Haar分散ユニタリ行列上のテンソルネットワークを象徴的に統合するRTNIのPythonバージョンをアップグレードしている。
現在、PyRTNI2 はハール分布行列と実かつ複素正規ガウステンソルも扱うことができる。
本稿では,プログラムの背後にある数学を説明し,それを用いてどのようなテンソルネットワーク計算を行うことができるかを示す。
論文 参考訳(メタデータ) (2023-09-03T13:14:46Z) - TensorKrowch: Smooth integration of tensor networks in machine learning [46.0920431279359]
PyTorch上に構築されたオープンソースのPythonライブラリであるKrowchを紹介します。
ユーザは任意のテンソルネットワークを構築してトレーニングし、より複雑なディープラーニングモデルにレイヤとして統合することができる。
論文 参考訳(メタデータ) (2023-06-14T15:55:19Z) - Logits are predictive of network type [47.64219291655723]
どのディープネットワークが与えられたロジットベクトルを生成したのかを、確率よりはるかに高い精度で予測することが可能である。
データセット上には、ランダムな重みや事前訓練された重みを持つネットワークや、微調整されたネットワークを多数使用しています。
論文 参考訳(メタデータ) (2022-11-04T05:53:27Z) - Near-Linear Time and Fixed-Parameter Tractable Algorithms for Tensor
Decompositions [51.19236668224547]
テンソルの低階近似について検討し,テンソルトレインとタッカー分解に着目した。
テンソル列車の分解には、小さなビクリテリアランクを持つビクリテリア$(1 + eps)$-approximationアルゴリズムと、O(q cdot nnz(A))$ランニングタイムを与える。
さらに、任意のグラフを持つテンソルネットワークにアルゴリズムを拡張します。
論文 参考訳(メタデータ) (2022-07-15T11:55:09Z) - Tensor networks in machine learning [0.0]
テンソルネットワーク(テンソルネットワーク)は、大規模なデータ配列を表現および近似するために用いられる分解である。
テンソルネットワークと機械学習の融合は自然である。
ここで、ネットワークパラメータを調整して、データセットを学習または分類する。
論文 参考訳(メタデータ) (2022-07-06T18:00:00Z) - DeepReduce: A Sparse-tensor Communication Framework for Distributed Deep
Learning [79.89085533866071]
本稿では,スパーステンソルの圧縮通信のための汎用的フレームワークであるDeepReduceを紹介する。
DeepReduceはテンソルを2つの集合、値とインデックスに分解し、これらの集合の独立圧縮と結合圧縮を可能にする。
大規模実モデルを用いた実験により,DeepReduceはデータ転送を少なくし,既存の手法よりも計算オーバーヘッドを小さくすることを示した。
論文 参考訳(メタデータ) (2021-02-05T11:31:24Z) - Permute, Quantize, and Fine-tune: Efficient Compression of Neural
Networks [70.0243910593064]
ベクトル量子化の成功の鍵は、どのパラメータ群を一緒に圧縮するかを決定することである。
本稿では,隣り合う2つの層の重みを同じ関数を表現しながら不変にすることができることを観察する。
次に、レート歪み理論への接続を確立し、圧縮し易いネットワークとなる置換を探索する。
論文 参考訳(メタデータ) (2020-10-29T15:47:26Z) - T-Basis: a Compact Representation for Neural Networks [89.86997385827055]
テンソルの集合をコンパクトに表現するための概念である T-Basis をニューラルネットワークでよく見られる任意の形状で導入する。
ニューラルネットワーク圧縮の課題に対する提案手法の評価を行い, 許容性能低下時に高い圧縮速度に達することを示す。
論文 参考訳(メタデータ) (2020-07-13T19:03:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。