論文の概要: Theory on variational high-dimensional tensor networks
- arxiv url: http://arxiv.org/abs/2303.17452v1
- Date: Thu, 30 Mar 2023 15:26:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-31 13:12:27.581590
- Title: Theory on variational high-dimensional tensor networks
- Title(参考訳): 変分高次元テンソルネットワークの理論
- Authors: Zidu Liu, Qi Ye, Li-Wei Yu, L.-M. Duan, and Dong-Ling Deng
- Abstract要約: ランダムな高次元テンソルネットワーク状態の創発的統計特性と変分テンソルネットワークのトレーニング可能性について検討する。
この結果から, 変分高次元テンソルネットワークの基本特性が明らかとなり, 将来の理論的研究と実用化の道が開けた。
- 参考スコア(独自算出の注目度): 2.0307382542339485
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tensor network methods are powerful tools for studying quantum many-body
systems. In this paper, we investigate the emergent statistical properties of
random high-dimensional tensor-network states and the trainability of
variational tensor networks. We utilize diagrammatic methods and map our
problems to the calculations of different partition functions for
high-dimensional Ising models with special structures. To address the notorious
difficulty in cracking these models, we develop a combinatorial method based on
solving the ``puzzle of polyominoes". With this method, we are able to
rigorously prove that the high-dimensional tensor network models suffer from
barren plateaus (i.e., exponentially vanishing gradients) for global loss
functions, rendering their training processes inefficient in general. Whereas,
for local loss functions, we prove that the gradient is independent of the
system size (thus no barren plateau occurs), but decays exponentially with the
distance between the region where the local observable acts and the site that
hosts the derivative parameter. Our results uncover in a rigorous fashion some
fundamental properties for variational high-dimensional tensor networks, which
paves a way for their future theoretical studies and practical applications.
- Abstract(参考訳): テンソルネットワーク法は量子多体系を研究するための強力なツールである。
本稿では,乱数高次元テンソルネットワーク状態の創発的統計特性と変分テンソルネットワークのトレーサビリティについて検討する。
図式的手法を用いて問題を特殊構造を持つ高次元イジングモデルに対して異なる分割関数の計算にマッピングする。
これらのモデルのクラックの悪名高い難しさに対処するために、我々は ‘puzzle of polyominoes' の解法に基づく組合せ法を開発した。
この方法では,高次元テンソルネットワークモデルが大域的損失関数のバレンプラトー(指数関数的に消失する勾配)に苦しむことを厳密に証明でき,その訓練過程は一般に非効率的である。
一方,局所損失関数では,勾配が系の大きさに依存しないことが証明される(不毛高原は発生しない)が,局所観測可能な領域と微分パラメータを持つ場所との間の距離で指数関数的に崩壊する。
この結果は, 変動型高次元テンソルネットワークの基本特性を厳密な方法で明らかにし, 将来の理論的研究と実用化の道を開いた。
関連論文リスト
- Quantized Fourier and Polynomial Features for more Expressive Tensor
Network Models [9.18287948559108]
モデル重みを過度にパラメータ化されたテンソルネットワークに制約することで,特徴量に存在するテンソル構造を利用する。
同じ数のモデルパラメータに対して、結果の量子化モデルは、その非量子化モデルとは対照的に、VC次元に高いバウンドを持つことを示す。
論文 参考訳(メタデータ) (2023-09-11T13:18:19Z) - Absence of barren plateaus and scaling of gradients in the energy optimization of isometric tensor network states [0.0]
広いハミルトンと有限範囲の相互作用を持つ量子多体系のエネルギー問題を考える。
行列積状態,木テンソルネットワーク,およびマルチスケールエンタングル化再正規化アンサッツに対する変分最適化問題は,バレンプラトーを含まないことを証明した。
論文 参考訳(メタデータ) (2023-03-31T22:49:49Z) - Low-Rank Tensor Function Representation for Multi-Dimensional Data
Recovery [52.21846313876592]
低ランクテンソル関数表現(LRTFR)は、無限解像度でメッシュグリッドを超えてデータを連続的に表現することができる。
テンソル関数に対する2つの基本的な概念、すなわちテンソル関数ランクとローランクテンソル関数分解を開発する。
提案手法は,最先端手法と比較して,提案手法の優越性と汎用性を裏付けるものである。
論文 参考訳(メタデータ) (2022-12-01T04:00:38Z) - Error Analysis of Tensor-Train Cross Approximation [88.83467216606778]
我々は, テンソル全体の精度保証を行う。
結果は数値実験により検証され、高次テンソルに対するクロス近似の有用性に重要な意味を持つ可能性がある。
論文 参考訳(メタデータ) (2022-07-09T19:33:59Z) - Decimation technique for open quantum systems: a case study with
driven-dissipative bosonic chains [62.997667081978825]
量子系の外部自由度への不可避結合は、散逸(非単体)ダイナミクスをもたらす。
本稿では,グリーン関数の(散逸的な)格子計算に基づいて,これらのシステムに対処する手法を提案する。
本手法のパワーを,複雑性を増大させる駆動散逸型ボゾン鎖のいくつかの例で説明する。
論文 参考訳(メタデータ) (2022-02-15T19:00:09Z) - Equivariant vector field network for many-body system modeling [65.22203086172019]
Equivariant Vector Field Network (EVFN) は、新しい同変層と関連するスカラー化およびベクトル化層に基づいて構築されている。
シミュレーションされたニュートン力学系の軌跡を全観測データと部分観測データで予測する手法について検討した。
論文 参考訳(メタデータ) (2021-10-26T14:26:25Z) - The Presence and Absence of Barren Plateaus in Tensor-network Based
Machine Learning [0.0]
テンソルネットワークに基づく機械学習モデルのトレーニング可能性について、異なる損失関数のランドスケープを探索することによって検討する。
我々は,大域的損失関数を持つ機械学習アルゴリズムのトレーニングプロセスにおいて,バレンプラトーが有効であることを厳密に証明する。
論文 参考訳(メタデータ) (2021-08-18T18:00:03Z) - Tensor-Train Networks for Learning Predictive Modeling of
Multidimensional Data [0.0]
有望な戦略は、物理的および化学的用途で非常に成功したテンソルネットワークに基づいています。
本研究では, 多次元回帰モデルの重みをテンソルネットワークを用いて学習し, 強力なコンパクト表現を実現することを示した。
TT形式の重みを計算力の低減で近似するための最小二乗を交互に行うアルゴリズムが提案されている。
論文 参考訳(メタデータ) (2021-01-22T16:14:38Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Anomaly Detection with Tensor Networks [2.3895981099137535]
テンソルネットワークのメモリと計算効率を利用して、原特徴数の次元指数で空間上の線形変換を学習する。
画像の局所性を利用していないにもかかわらず、画像データセット上で競合する結果を生成する。
論文 参考訳(メタデータ) (2020-06-03T20:41:30Z) - Semiparametric Nonlinear Bipartite Graph Representation Learning with
Provable Guarantees [106.91654068632882]
半パラメトリック指数族分布におけるパラメータの統計的推定問題として、両部グラフを考察し、その表現学習問題を定式化する。
提案手法は, 地中真理付近で強い凸性を示すため, 勾配降下法が線形収束率を達成できることを示す。
我々の推定器は指数族内の任意のモデル誤特定に対して頑健であり、広範な実験で検証されている。
論文 参考訳(メタデータ) (2020-03-02T16:40:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。