論文の概要: Tensor networks in machine learning
- arxiv url: http://arxiv.org/abs/2207.02851v1
- Date: Wed, 6 Jul 2022 18:00:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-09 07:33:17.663342
- Title: Tensor networks in machine learning
- Title(参考訳): 機械学習におけるテンソルネットワーク
- Authors: Richik Sengupta, Soumik Adhikary, Ivan Oseledets, Jacob Biamonte
- Abstract要約: テンソルネットワーク(テンソルネットワーク)は、大規模なデータ配列を表現および近似するために用いられる分解である。
テンソルネットワークと機械学習の融合は自然である。
ここで、ネットワークパラメータを調整して、データセットを学習または分類する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A tensor network is a type of decomposition used to express and approximate
large arrays of data. A given data-set, quantum state or higher dimensional
multi-linear map is factored and approximated by a composition of smaller
multi-linear maps. This is reminiscent to how a Boolean function might be
decomposed into a gate array: this represents a special case of tensor
decomposition, in which the tensor entries are replaced by 0, 1 and the
factorisation becomes exact. The collection of associated techniques are
called, tensor network methods: the subject developed independently in several
distinct fields of study, which have more recently become interrelated through
the language of tensor networks. The tantamount questions in the field relate
to expressability of tensor networks and the reduction of computational
overheads. A merger of tensor networks with machine learning is natural. On the
one hand, machine learning can aid in determining a factorization of a tensor
network approximating a data set. On the other hand, a given tensor network
structure can be viewed as a machine learning model. Herein the tensor network
parameters are adjusted to learn or classify a data-set. In this survey we
recover the basics of tensor networks and explain the ongoing effort to develop
the theory of tensor networks in machine learning.
- Abstract(参考訳): テンソルネットワーク(tensor network)は、大規模なデータの配列を表現および近似するために使用される分解の一種である。
与えられたデータセット、量子状態、あるいは高次元の多重線型写像は、より小さな多重線型写像の合成によって決定され近似される。
これはブール関数をゲート配列に分解する方法を思い起こさせる: これはテンソル分解の特別な場合を表し、テンソルのエントリは 0, 1 に置き換えられ、分解は完全になる。
関連する技術の集合はテンソルネットワーク法(tensor network method)と呼ばれる: 対象はいくつかの異なる研究分野において独立に発展し、近年はテンソルネットワークの言語によって相互に関連している。
この分野でのタンタマウント問題はテンソルネットワークの表現可能性と計算オーバーヘッドの低減に関連している。
テンソルネットワークと機械学習の融合は自然である。
一方、機械学習はデータセットを近似するテンソルネットワークの分解を決定するのに役立つ。
一方、与えられたテンソルネットワーク構造は、機械学習モデルと見なすことができる。
ここでテンソルネットワークパラメータは、データセットを学習または分類するために調整される。
本研究では, テンソルネットワークの基礎を復元し, 機械学習におけるテンソルネットワークの理論の展開について解説する。
関連論文リスト
- Compressing multivariate functions with tree tensor networks [0.0]
1次元テンソルネットワークは、連続関数の数値アンザッツとしてますます利用されている。
構造木テンソルネットワークが、一般的に使用されるテンソルトレインよりもはるかに効率的なアンザッツを提供することを示す。
論文 参考訳(メタデータ) (2024-10-04T16:20:52Z) - TensorKrowch: Smooth integration of tensor networks in machine learning [46.0920431279359]
PyTorch上に構築されたオープンソースのPythonライブラリであるKrowchを紹介します。
ユーザは任意のテンソルネットワークを構築してトレーニングし、より複雑なディープラーニングモデルにレイヤとして統合することができる。
論文 参考訳(メタデータ) (2023-06-14T15:55:19Z) - Low-Rank Tensor Function Representation for Multi-Dimensional Data
Recovery [52.21846313876592]
低ランクテンソル関数表現(LRTFR)は、無限解像度でメッシュグリッドを超えてデータを連続的に表現することができる。
テンソル関数に対する2つの基本的な概念、すなわちテンソル関数ランクとローランクテンソル関数分解を開発する。
提案手法は,最先端手法と比較して,提案手法の優越性と汎用性を裏付けるものである。
論文 参考訳(メタデータ) (2022-12-01T04:00:38Z) - Stack operation of tensor networks [10.86105335102537]
本稿では,テンソルネットワークスタックアプローチに対する数学的に厳密な定義を提案する。
本稿では、行列製品状態に基づく機械学習を例として、主なアイデアを例に挙げる。
論文 参考訳(メタデータ) (2022-03-28T12:45:13Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - Tensor Methods in Computer Vision and Deep Learning [120.3881619902096]
テンソル(tensor)は、複数の次元の視覚データを自然に表現できるデータ構造である。
コンピュータビジョンにおけるディープラーニングパラダイムシフトの出現により、テンソルはさらに基本的なものになっている。
本稿では,表現学習と深層学習の文脈において,テンソルとテンソル法を深く,実践的に検討する。
論文 参考訳(メタデータ) (2021-07-07T18:42:45Z) - Mutual Information Scaling for Tensor Network Machine Learning [0.0]
本稿では,テンソルネットワーク機械学習における相関解析の適用方法を示す。
古典的データが量子状態に類似した相関スケーリングパターンを持つかどうかを考察する。
我々は,MNISTデータセットとTiny Imagesデータセットのスケーリングパターンを特徴付け,後者における境界法スケーリングの明確な証拠を見出す。
論文 参考訳(メタデータ) (2021-02-27T02:17:51Z) - Tensor-Train Networks for Learning Predictive Modeling of
Multidimensional Data [0.0]
有望な戦略は、物理的および化学的用途で非常に成功したテンソルネットワークに基づいています。
本研究では, 多次元回帰モデルの重みをテンソルネットワークを用いて学習し, 強力なコンパクト表現を実現することを示した。
TT形式の重みを計算力の低減で近似するための最小二乗を交互に行うアルゴリズムが提案されている。
論文 参考訳(メタデータ) (2021-01-22T16:14:38Z) - T-Basis: a Compact Representation for Neural Networks [89.86997385827055]
テンソルの集合をコンパクトに表現するための概念である T-Basis をニューラルネットワークでよく見られる任意の形状で導入する。
ニューラルネットワーク圧縮の課題に対する提案手法の評価を行い, 許容性能低下時に高い圧縮速度に達することを示す。
論文 参考訳(メタデータ) (2020-07-13T19:03:22Z) - Neural networks adapting to datasets: learning network size and topology [77.34726150561087]
ニューラルネットワークは、勾配に基づくトレーニングの過程で、そのサイズとトポロジの両方を学習できるフレキシブルなセットアップを導入します。
結果として得られるネットワークは、特定の学習タスクとデータセットに合わせたグラフの構造を持つ。
論文 参考訳(メタデータ) (2020-06-22T12:46:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。