論文の概要: Sign problem in tensor network contraction
- arxiv url: http://arxiv.org/abs/2404.19023v2
- Date: Sat, 18 Jan 2025 12:08:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:14:45.513570
- Title: Sign problem in tensor network contraction
- Title(参考訳): テンソルネットワーク収縮における符号問題
- Authors: Jielun Chen, Jiaqing Jiang, Dominik Hangleiter, Norbert Schuch,
- Abstract要約: テンソルネットワークの収縮の難しさはテンソルエントリの符号構造に依存するかを検討する。
難易度から易度への遷移は、成分が主に正になるときに起こる。
また、テンソルネットワーク波動関数の予測値の計算困難さについても検討する。
- 参考スコア(独自算出の注目度): 0.5437298646956507
- License:
- Abstract: We investigate how the computational difficulty of contracting tensor networks depends on the sign structure of the tensor entries. Using results from computational complexity, we observe that the approximate contraction of tensor networks with only positive entries has lower complexity. This raises the question how this transition in computational complexity manifests itself in the hardness of different contraction schemes. We pursue this question by studying random tensor networks with varying bias towards positive entries. First, we consider contraction via Monte Carlo sampling, and find that the transition from hard to easy occurs when the entries become predominantly positive; this can be seen as a tensor network manifestation of the Quantum Monte Carlo sign problem. Second, we analyze the commonly used contraction based on boundary tensor networks. Its performance is governed by the amount of correlations (entanglement) in the tensor network. Remarkably, we find that the transition from hard to easy (i.e., from a volume law to a boundary law scaling of entanglement) occurs already for a slight bias towards a positive mean, and the earlier the larger the bond dimension is. This is in contrast to both expectations and the behavior found in Monte Carlo contraction. We gain further insight into this early transition from the study of an effective statmech model. Finally, we investigate the computational difficulty of computing expectation values of tensor network wavefunctions, i.e., PEPS, where we find that the complexity of entanglement-based contraction always remains low. We explain this by providing a local transformation which maps PEPS expectation values to a positive-valued tensor network. This not only provides insight into the origin of the observed boundary law entanglement scaling, but also suggests new approaches towards PEPS contraction based on positive decompositions.
- Abstract(参考訳): テンソルネットワークの縮小の計算困難さはテンソルエントリの符号構造に依存するかを検討する。
計算複雑性の結果を用いて、正の成分しか持たないテンソルネットワークの近似縮約がより少ないことを観察する。
このことは、計算複雑性におけるこの遷移が、異なる収縮スキームの硬さにどのように現れているのかという疑問を提起する。
我々は、正のエントリに対するバイアスが異なるランダムなテンソルネットワークを研究することによって、この問題を追求する。
まず、モンテカルロサンプリングによる縮約を考察し、成分が主に正となるとき、難しい状態から簡単な状態への遷移が生じることを発見し、これは量子モンテカルロ符号問題のテンソルネットワークの顕在化として見ることができる。
第2に、境界テンソルネットワークに基づいて、よく使われる収縮を分析する。
その性能はテンソルネットワークにおける相関(絡み合い)の量によって支配される。
注目すべきことに、結合次元がより大きいほど(体積法則から絡み合う境界法へのスケーリング)、わずかに偏りが生じる。
これは、モンテカルロの収縮に見られる期待と振舞いの両方とは対照的である。
有効な統計モデルの研究から、この初期の遷移についてさらなる知見を得る。
最後に,テンソルネットワーク波動関数の予測値,すなわちPEPSの計算困難さについて検討し,絡み合いに基づく収縮の複雑さが常に低いことを示す。
PEPS期待値を正値テンソルネットワークにマッピングする局所変換を提供することで、これを説明できる。
これは、観測された境界法絡み合いのスケーリングの起源に関する洞察を与えるだけでなく、正の分解に基づくPEPS収縮に対する新しいアプローチも提案する。
関連論文リスト
- Positive bias makes tensor-network contraction tractable [0.5437298646956507]
テンソルネットワークの収縮は、量子多体物理学、量子情報、量子化学において強力な計算ツールである。
ここでは、テンソル-ネットワークの収縮の複雑さが、量子性、すなわちそのエントリの符号構造の違いにどのように依存するかを研究する。
論文 参考訳(メタデータ) (2024-10-07T18:27:23Z) - Tensor Network Computations That Capture Strict Variationality, Volume Law Behavior, and the Efficient Representation of Neural Network States [0.6148049086034199]
本稿では,振幅の収縮の計算グラフによって定義されるテンソルネットワーク状態の視点変化を紹介する。
結果として得られる状態のクラスはテンソルネットワーク関数と呼ばれ、テンソルネットワーク状態の概念上の利点を継承し、近似された収縮を収束させる必要から生じる計算的制約を除去する。
テンソルネットワーク関数を用いて、ループグラフ上のエネルギーの厳密な変動推定を計算し、基底状態の表現力を解析し、体積法則の時間進化の側面を捉え、一般的なフィードフォワードニューラルネットワークの効率的なテンソルネットワーク関数へのマッピングを提供する。
論文 参考訳(メタデータ) (2024-05-06T19:04:13Z) - Tensor cumulants for statistical inference on invariant distributions [49.80012009682584]
我々は,PCAが信号の大きさの臨界値で計算的に困難になることを示す。
我々は、与えられた次数の不変量に対して明示的でほぼ直交的な基底を与える新しい対象の集合を定義する。
また、異なるアンサンブルを区別する新しい問題も分析できます。
論文 参考訳(メタデータ) (2024-04-29T14:33:24Z) - Error Analysis of Tensor-Train Cross Approximation [88.83467216606778]
我々は, テンソル全体の精度保証を行う。
結果は数値実験により検証され、高次テンソルに対するクロス近似の有用性に重要な意味を持つ可能性がある。
論文 参考訳(メタデータ) (2022-07-09T19:33:59Z) - Mean-field Analysis of Piecewise Linear Solutions for Wide ReLU Networks [83.58049517083138]
勾配勾配勾配を用いた2層ReLUネットワークについて検討する。
SGDは単純な解に偏りがあることが示される。
また,データポイントと異なる場所で結び目が発生するという経験的証拠も提供する。
論文 参考訳(メタデータ) (2021-11-03T15:14:20Z) - On Convergence of Training Loss Without Reaching Stationary Points [62.41370821014218]
ニューラルネットワークの重み変数は、損失関数の勾配が消える定常点に収束しないことを示す。
エルゴード理論の力学系に基づく新しい視点を提案する。
論文 参考訳(メタデータ) (2021-10-12T18:12:23Z) - What training reveals about neural network complexity [80.87515604428346]
この研究は、ディープニューラルネットワーク(NN)が学習している関数の複雑さは、トレーニング中にその重みがどれほど速く変化するかによって推定できるという仮説を探求する。
我々の結果は、優れた訓練行動が良い一般化への有用なバイアスとなるという仮説を支持している。
論文 参考訳(メタデータ) (2021-06-08T08:58:00Z) - Alternating linear scheme in a Bayesian framework for low-rank tensor
approximation [5.833272638548154]
ベイズ推論問題を解くことにより、与えられたテンソルの低ランク表現を見つける。
本稿では,テンソルトレイン方式で無音変換を行うアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-21T10:15:30Z) - Mean-field entanglement transitions in random tree tensor networks [0.0]
量子カオス系におけるエンタングルメント相転移は、異なるエンタングルメントスケーリングを持つ位相を分離する新たな臨界点のクラスとして出現している。
ランダムツリーテンソルネットワークの絡み合い特性を研究することにより,そのような遷移の平均場理論を提案する。
論文 参考訳(メタデータ) (2020-03-02T19:00:19Z) - Understanding Generalization in Deep Learning via Tensor Methods [53.808840694241]
圧縮の観点から,ネットワークアーキテクチャと一般化可能性の関係について理解を深める。
本稿では、ニューラルネットワークの圧縮性と一般化性を強く特徴付ける、直感的で、データ依存的で、測定が容易な一連の特性を提案する。
論文 参考訳(メタデータ) (2020-01-14T22:26:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。