論文の概要: Theory on variational high-dimensional tensor networks
- arxiv url: http://arxiv.org/abs/2303.17452v2
- Date: Mon, 22 May 2023 04:28:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 03:33:18.780113
- Title: Theory on variational high-dimensional tensor networks
- Title(参考訳): 変分高次元テンソルネットワークの理論
- Authors: Zidu Liu, Qi Ye, Li-Wei Yu, L.-M. Duan, and Dong-Ling Deng
- Abstract要約: ランダムな高次元ネットワーク状態の創発的統計特性とテンソルネットワークのトレーニング可能性について検討する。
変動高次元ネットワークが大域的損失関数のバレンプラトーに悩まされていることを証明した。
この結果は、将来の理論的研究と実践的応用の道を開くものである。
- 参考スコア(独自算出の注目度): 2.0307382542339485
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tensor network methods are powerful tools for studying quantum many-body
systems. In this paper, we investigate the emergent statistical properties of
random high-dimensional tensor-network states and the trainability of
variational tensor networks. We utilize diagrammatic methods and map our
problems to the calculations of different partition functions for
high-dimensional Ising models with special structures. To address the notorious
difficulty in cracking these models, we develop a combinatorial method based on
solving the ``puzzle of polyominoes". With this method, we are able to
rigorously study statistical properties of the high dimensional random tensor
networks. We prove: (a) the entanglement entropy approaches the maximal volume
law, except for a small probability that is bounded by an inverse polynomial of
the bond dimension; (b) the typicality occurs for the expectation value of a
local observable when the bond dimension increases. In addition, we investigate
the barren plateaus (i.e., exponentially vanishing gradients) for the
high-dimensional tensor network models. We prove that such variational models
suffer from barren plateaus for global loss functions, rendering their training
processes inefficient in general. Whereas, for local loss functions, we prove
that the gradient is independent of the system size (thus no barren plateau
occurs), but decays exponentially with the distance between the region where
the local observable acts and the site that hosts the derivative parameter. Our
results uncover in a rigorous fashion some fundamental properties for
variational high-dimensional tensor networks, which paves a way for their
future theoretical studies and practical applications.
- Abstract(参考訳): テンソルネットワーク法は量子多体系を研究するための強力なツールである。
本稿では,乱数高次元テンソルネットワーク状態の創発的統計特性と変分テンソルネットワークのトレーサビリティについて検討する。
図式的手法を用いて問題を特殊構造を持つ高次元イジングモデルに対して異なる分割関数の計算にマッピングする。
これらのモデルのクラックの悪名高い難しさに対処するために、我々は ‘puzzle of polyominoes' の解法に基づく組合せ法を開発した。
この方法では、高次元ランダムテンソルネットワークの統計的性質を厳密に研究することができる。
証明します
(a) 絡み合いエントロピーは、結合次元の逆多項式によって境界付けられた小さな確率を除いて、最大体積則に近づく。
b) 結合次元が大きくなると、局所観測値の期待値に対して典型性が生じる。
さらに,高次元テンソルネットワークモデルに対するバレン高原(指数関数的に消滅する勾配)について検討する。
このような変分モデルが大域的損失関数に対する不毛高原に苦しむことを証明し、その訓練過程を一般に非効率にすることを証明する。
一方,局所損失関数では,勾配が系の大きさに依存しないことが証明される(不毛高原は発生しない)が,局所観測可能な領域と微分パラメータを持つ場所との間の距離で指数関数的に崩壊する。
この結果は, 変動型高次元テンソルネットワークの基本特性を厳密な方法で明らかにし, 将来の理論的研究と実用化の道を開いた。
関連論文リスト
- Quantized Fourier and Polynomial Features for more Expressive Tensor
Network Models [9.18287948559108]
モデル重みを過度にパラメータ化されたテンソルネットワークに制約することで,特徴量に存在するテンソル構造を利用する。
同じ数のモデルパラメータに対して、結果の量子化モデルは、その非量子化モデルとは対照的に、VC次元に高いバウンドを持つことを示す。
論文 参考訳(メタデータ) (2023-09-11T13:18:19Z) - Absence of barren plateaus and scaling of gradients in the energy optimization of isometric tensor network states [0.0]
広いハミルトンと有限範囲の相互作用を持つ量子多体系のエネルギー問題を考える。
行列積状態,木テンソルネットワーク,およびマルチスケールエンタングル化再正規化アンサッツに対する変分最適化問題は,バレンプラトーを含まないことを証明した。
論文 参考訳(メタデータ) (2023-03-31T22:49:49Z) - Low-Rank Tensor Function Representation for Multi-Dimensional Data
Recovery [52.21846313876592]
低ランクテンソル関数表現(LRTFR)は、無限解像度でメッシュグリッドを超えてデータを連続的に表現することができる。
テンソル関数に対する2つの基本的な概念、すなわちテンソル関数ランクとローランクテンソル関数分解を開発する。
提案手法は,最先端手法と比較して,提案手法の優越性と汎用性を裏付けるものである。
論文 参考訳(メタデータ) (2022-12-01T04:00:38Z) - Error Analysis of Tensor-Train Cross Approximation [88.83467216606778]
我々は, テンソル全体の精度保証を行う。
結果は数値実験により検証され、高次テンソルに対するクロス近似の有用性に重要な意味を持つ可能性がある。
論文 参考訳(メタデータ) (2022-07-09T19:33:59Z) - Decimation technique for open quantum systems: a case study with
driven-dissipative bosonic chains [62.997667081978825]
量子系の外部自由度への不可避結合は、散逸(非単体)ダイナミクスをもたらす。
本稿では,グリーン関数の(散逸的な)格子計算に基づいて,これらのシステムに対処する手法を提案する。
本手法のパワーを,複雑性を増大させる駆動散逸型ボゾン鎖のいくつかの例で説明する。
論文 参考訳(メタデータ) (2022-02-15T19:00:09Z) - Equivariant vector field network for many-body system modeling [65.22203086172019]
Equivariant Vector Field Network (EVFN) は、新しい同変層と関連するスカラー化およびベクトル化層に基づいて構築されている。
シミュレーションされたニュートン力学系の軌跡を全観測データと部分観測データで予測する手法について検討した。
論文 参考訳(メタデータ) (2021-10-26T14:26:25Z) - The Presence and Absence of Barren Plateaus in Tensor-network Based
Machine Learning [0.0]
テンソルネットワークに基づく機械学習モデルのトレーニング可能性について、異なる損失関数のランドスケープを探索することによって検討する。
我々は,大域的損失関数を持つ機械学習アルゴリズムのトレーニングプロセスにおいて,バレンプラトーが有効であることを厳密に証明する。
論文 参考訳(メタデータ) (2021-08-18T18:00:03Z) - Tensor-Train Networks for Learning Predictive Modeling of
Multidimensional Data [0.0]
有望な戦略は、物理的および化学的用途で非常に成功したテンソルネットワークに基づいています。
本研究では, 多次元回帰モデルの重みをテンソルネットワークを用いて学習し, 強力なコンパクト表現を実現することを示した。
TT形式の重みを計算力の低減で近似するための最小二乗を交互に行うアルゴリズムが提案されている。
論文 参考訳(メタデータ) (2021-01-22T16:14:38Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Anomaly Detection with Tensor Networks [2.3895981099137535]
テンソルネットワークのメモリと計算効率を利用して、原特徴数の次元指数で空間上の線形変換を学習する。
画像の局所性を利用していないにもかかわらず、画像データセット上で競合する結果を生成する。
論文 参考訳(メタデータ) (2020-06-03T20:41:30Z) - Semiparametric Nonlinear Bipartite Graph Representation Learning with
Provable Guarantees [106.91654068632882]
半パラメトリック指数族分布におけるパラメータの統計的推定問題として、両部グラフを考察し、その表現学習問題を定式化する。
提案手法は, 地中真理付近で強い凸性を示すため, 勾配降下法が線形収束率を達成できることを示す。
我々の推定器は指数族内の任意のモデル誤特定に対して頑健であり、広範な実験で検証されている。
論文 参考訳(メタデータ) (2020-03-02T16:40:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。