論文の概要: Representation Theorem for Matrix Product States
- arxiv url: http://arxiv.org/abs/2103.08277v1
- Date: Mon, 15 Mar 2021 11:06:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-16 14:17:54.165355
- Title: Representation Theorem for Matrix Product States
- Title(参考訳): マトリックス製品状態の表現理論
- Authors: Erdong Guo and David Draper
- Abstract要約: 本稿では, 行列積状態(MPS)の普遍的表現能力について, 関数と連続関数の観点から検討する。
任意のゲートに対して対応するMPS構造の構築方法を提供することにより、MPSが任意の機能を正確に実現できることを示した。
我々は,MPSとニューラルネットワークの関係について検討し,スケール不変なシグモダル関数を持つMPSが一層ニューラルネットワークと等価であることを示す。
- 参考スコア(独自算出の注目度): 1.7894377200944511
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we investigate the universal representation capacity of the
Matrix Product States (MPS) from the perspective of boolean functions and
continuous functions. We show that MPS can accurately realize arbitrary boolean
functions by providing a construction method of the corresponding MPS structure
for an arbitrarily given boolean gate. Moreover, we prove that the function
space of MPS with the scale-invariant sigmoidal activation is dense in the
space of continuous functions defined on a compact subspace of the
$n$-dimensional real coordinate space $\mathbb{R^{n}}$. We study the relation
between MPS and neural networks and show that the MPS with a scale-invariant
sigmoidal function is equivalent to a one-hidden-layer neural network equipped
with a kernel function. We construct the equivalent neural networks for several
specific MPS models and show that non-linear kernels such as the polynomial
kernel which introduces the couplings between different components of the input
into the model appear naturally in the equivalent neural networks. At last, we
discuss the realization of the Gaussian Process (GP) with infinitely wide MPS
by studying their equivalent neural networks.
- Abstract(参考訳): 本研究では, 行列積状態(MPS)の普遍的表現能力について, ブール関数と連続関数の観点から検討する。
任意に与えられたブールゲートに対して対応するMPS構造を構築することにより,MPSが任意のブール関数を正確に実現できることを示す。
さらに、スケール不変なシグモイド活性化を持つ MPS の函数空間は、$n$-次元実座標空間 $\mathbb{R^{n}}$ のコンパクト部分空間上で定義される連続函数の空間において密であることを証明する。
我々は,MPSとニューラルネットワークの関係について検討し,スケール不変なシグモダル関数を持つMPSが,カーネル関数を持つ一層ニューラルネットワークと等価であることを示す。
我々は,複数のMPSモデルに対して等価ニューラルネットワークを構築し,入力の異なる成分間の結合をモデルに導入する多項式カーネルなどの非線形カーネルが,同等のニューラルネットワークに自然に現れることを示す。
最後に, 無限幅mpを用いたガウス過程(gp)の実現について, 等価ニューラルネットワークを用いて検討する。
関連論文リスト
- Feature Mapping in Physics-Informed Neural Networks (PINNs) [1.9819034119774483]
本研究では, Conjugate Kernel と Neural Tangent Kernel を限定した特徴マッピング層を用いた PINN の訓練力学について検討する。
より優れた代替として,条件付き正定値ラジアル基底関数を提案する。
論文 参考訳(メタデータ) (2024-02-10T13:51:09Z) - Scalable Neural Network Kernels [22.299704296356836]
我々は、通常のフィードフォワード層(FFL)を近似できるスケーラブルニューラルネットワークカーネル(SNNK)を導入する。
また、深層ニューラルネットワークアーキテクチャのコンパクト化にSNNKを適用するニューラルネットワークバンドルプロセスについても紹介する。
我々のメカニズムは、競争精度を維持しながら、トレーニング可能なパラメータの最大5倍の削減を可能にする。
論文 参考訳(メタデータ) (2023-10-20T02:12:56Z) - Permutation Equivariant Neural Functionals [92.0667671999604]
この研究は、他のニューラルネットワークの重みや勾配を処理できるニューラルネットワークの設計を研究する。
隠れた層状ニューロンには固有の順序がないため, 深いフィードフォワードネットワークの重みに生じる置換対称性に着目する。
実験の結果, 置換同変ニューラル関数は多種多様なタスクに対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-02-27T18:52:38Z) - Versatile Neural Processes for Learning Implicit Neural Representations [57.090658265140384]
本稿では,近似関数の能力を大幅に向上させるVersatile Neural Processs (VNP)を提案する。
具体的には、より少ない情報的コンテキストトークンを生成するボトルネックエンコーダを導入し、高い計算コストを軽減した。
提案したVNPが1D, 2D, 3D信号を含む様々なタスクに対して有効であることを示す。
論文 参考訳(メタデータ) (2023-01-21T04:08:46Z) - Exploring the Approximation Capabilities of Multiplicative Neural
Networks for Smooth Functions [9.936974568429173]
対象関数のクラスは、一般化帯域制限関数とソボレフ型球である。
以上の結果から、乗法ニューラルネットワークは、これらの関数をはるかに少ない層とニューロンで近似できることを示した。
これらの結果は、乗法ゲートが標準フィードフォワード層より優れ、ニューラルネットワーク設計を改善する可能性があることを示唆している。
論文 参考訳(メタデータ) (2023-01-11T17:57:33Z) - Optimal Approximation with Sparse Neural Networks and Applications [0.0]
深い疎結合ニューラルネットワークを用いて、関数クラスの複雑性を$L(mathbb Rd)$で測定する。
また、ニューラルネットワークを誘導する関数の可算コレクションである表現システムについても紹介する。
次に、レート歪曲理論とウェッジレット構成を用いて、$beta$マンガ的関数と呼ばれるクラスの複雑性を分析する。
論文 参考訳(メタデータ) (2021-08-14T05:14:13Z) - Residual Matrix Product State for Machine Learning [20.158215120846652]
行列生成状態 (MPS) と残存ニューラルネットワーク (NN) のアイデアを組み合わせることで, 残留行列生成状態 (ResMPS) を提案する。
ResMPSは層が"隠された"特徴を出力にマッピングするネットワークとして扱うことができる。
それは効率、安定性および表現力の最先端のTNモデルより優秀です。
論文 参考訳(メタデータ) (2020-12-22T05:44:20Z) - Variational Monte Carlo calculations of $\mathbf{A\leq 4}$ nuclei with
an artificial neural-network correlator ansatz [62.997667081978825]
光核の基底状態波動関数をモデル化するためのニューラルネットワーク量子状態アンサッツを導入する。
我々は、Aleq 4$核の結合エネルギーと点核密度を、上位のピオンレス実効場理論から生じるものとして計算する。
論文 参考訳(メタデータ) (2020-07-28T14:52:28Z) - UNIPoint: Universally Approximating Point Processes Intensities [125.08205865536577]
学習可能な関数のクラスが任意の有効な強度関数を普遍的に近似できることを示す。
ニューラルポイントプロセスモデルであるUNIPointを実装し,各イベントの基底関数の和をパラメータ化するために,リカレントニューラルネットワークを用いた。
論文 参考訳(メタデータ) (2020-07-28T09:31:56Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Space of Functions Computed by Deep-Layered Machines [74.13735716675987]
深層ニューラルネットワークやブール回路を含むランダム層マシンによって計算される関数の空間について検討する。
繰り返しおよび層依存アーキテクチャ上で計算されたブール関数の分布を調べた結果、両方のモデルで同じであることが判明した。
論文 参考訳(メタデータ) (2020-04-19T18:31:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。