論文の概要: The minimal canonical form of a tensor network
- arxiv url: http://arxiv.org/abs/2209.14358v1
- Date: Wed, 28 Sep 2022 18:41:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-24 19:17:35.420390
- Title: The minimal canonical form of a tensor network
- Title(参考訳): テンソルネットワークの最小の正準形式
- Authors: Arturo Acuaviva and Visu Makam and Harold Nieuwboer and David
P\'erez-Garc\'ia and Friedrich Sittner and Michael Walter and Freek Witteveen
- Abstract要約: 任意の次元の射影絡み合ったペア状態(PEPS)に適用可能な,新しい正準形式,最小正準形式を導入する。
2つのテンソルが同じ極小正準形式を持つことを示し、それらが極限を取るためのゲージ同値である場合に限る。
これは、グリッド上のPEPSのよく知られた不決定性とは対照的に、後者の問題が決定可能であることを意味する。
- 参考スコア(独自算出の注目度): 0.9892861731663933
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tensor networks have a gauge degree of freedom on the virtual degrees of
freedom that are contracted. A canonical form is a choice of fixing this degree
of freedom. For matrix product states, choosing a canonical form is a powerful
tool, both for theoretical and numerical purposes. On the other hand, for
tensor networks in dimension two or greater there is only limited understanding
of the gauge symmetry. Here we introduce a new canonical form, the minimal
canonical form, which applies to projected entangled pair states (PEPS) in any
dimension, and prove a corresponding fundamental theorem. Already for matrix
product states this gives a new canonical form, while in higher dimensions it
is the first rigorous definition of a canonical form valid for any choice of
tensor. We show that two tensors have the same minimal canonical forms if and
only if they are gauge equivalent up to taking limits; moreover, this is the
case if and only if they give the same quantum state for any geometry. In
particular, this implies that the latter problem is decidable - in contrast to
the well-known undecidability for PEPS on grids. We also provide rigorous
algorithms for computing minimal canonical forms. To achieve this we draw on
geometric invariant theory and recent progress in theoretical computer science
in non-commutative group optimization.
- Abstract(参考訳): テンソルネットワークは、契約された仮想自由度に対してゲージ自由度を持つ。
正準形式は、この自由度を固定する選択である。
行列積状態の場合、正準形式を選択することは理論的目的と数値的目的の両方において強力なツールである。
一方、次元 2 以上のテンソルネットワークに対しては、ゲージ対称性の限定的な理解しか存在しない。
ここでは、任意の次元の射影絡み合ったペア状態(PEPS)に適用可能な、新しい正準形式である最小正準形式を導入し、対応する基本定理を証明する。
行列積に対して既にこれは新しい正準形式を与えるが、高次元ではテンソルの選択に有効な正準形式の最初の厳密な定義である。
2つのテンソルが同じ最小の正準形式を持つことは、それらが極限を取るためのゲージ同値であることと、それに加えて、それらが任意の幾何学に対して同じ量子状態を与える場合に限る。
特に、後者の問題は決定可能であり、グリッド上のPEPSのよく知られた不決定性とは対照的である。
最小の正準形式を計算するための厳密なアルゴリズムも提供しています。
これを達成するために、幾何学的不変理論と非可換群最適化における理論計算機科学の最近の進歩を論じる。
関連論文リスト
- Learning with Norm Constrained, Over-parameterized, Two-layer Neural Networks [54.177130905659155]
近年の研究では、再生カーネルヒルベルト空間(RKHS)がニューラルネットワークによる関数のモデル化に適した空間ではないことが示されている。
本稿では,有界ノルムを持つオーバーパラメータ化された2層ニューラルネットワークに適した関数空間について検討する。
論文 参考訳(メタデータ) (2024-04-29T15:04:07Z) - Multipartite edge modes and tensor networks [0.12289361708127876]
ホログラフィックテンソルネットワークはAdS/CFTをモデル化しているが、これまでのところ、それらは重力と非常に異なるシステムのみによって制限されてきた。
ここでは、低次元の重力をトポロジカルゲージ理論として記述することができ、ゲージ不変性を破ることなく離散化することができる。
我々は,新しいタイプの領域を含むテンソルネットワークの構築に成功した。
論文 参考訳(メタデータ) (2024-04-04T17:59:22Z) - Geometry of degenerate quantum states, configurations of $m$-planes and invariants on complex Grassmannians [55.2480439325792]
退化状態の幾何学を非アーベル接続(英語版)$A$に還元する方法を示す。
部分空間のそれぞれに付随する独立不変量を見つける。
それらのいくつかはベリー・パンチャラトナム位相を一般化し、1次元部分空間の類似点を持たないものもある。
論文 参考訳(メタデータ) (2024-04-04T06:39:28Z) - Average-Case Complexity of Tensor Decomposition for Low-Degree
Polynomials [93.59919600451487]
多くの統計的推論タスクにおいて「統計計算ギャップ」が発生する。
1つの成分が他の成分よりもわずかに大きいランダムオーダー3分解モデルを考える。
テンソルエントリは$ll n3/2$のとき最大成分を正確に推定できるが、$rgg n3/2$のとき失敗する。
論文 参考訳(メタデータ) (2022-11-10T00:40:37Z) - Canonical convolutional neural networks [5.803855889358524]
畳み込みニューラルネットワークの標準重み正規化を提案する。
標準テンソル分解にインスパイアされ、外ベクトル積のスケールした和として重みテンソルを表現する。
論文 参考訳(メタデータ) (2022-06-03T11:19:38Z) - Test Set Sizing Via Random Matrix Theory [91.3755431537592]
本稿ではランダム行列理論の手法を用いて、単純な線形回帰に対して理想的なトレーニング-テストデータ分割を求める。
それは「理想」を整合性計量を満たすものとして定義し、すなわち経験的モデル誤差は実際の測定ノイズである。
本論文は,任意のモデルのトレーニングとテストサイズを,真に最適な方法で解決した最初の論文である。
論文 参考訳(メタデータ) (2021-12-11T13:18:33Z) - Coordinate Independent Convolutional Networks -- Isometry and Gauge
Equivariant Convolutions on Riemannian Manifolds [70.32518963244466]
平坦空間と比較して大きな複雑さは、コンボリューション核が多様体にどのようなアライメントを適用するべきかが不明確であることである。
コーディネート化の特定の選択は、ネットワークの推論に影響を与えるべきではない、と我々は主張する。
座標独立と重み共有の同時要求は、ネットワーク上の同変要求をもたらす。
論文 参考訳(メタデータ) (2021-06-10T19:54:19Z) - Bending the Bruhat-Tits Tree I:Tensor Network and Emergent Einstein
Equations [6.127256542161883]
p進CFTは、固定点からCFTを変形させたとしても、双対幾何学の幾何情報を符号化する方法を示す。
これは、テンソルネットワークから直接具体的なアインシュタイン方程式を抽出できるという最初の定量的実証である。
論文 参考訳(メタデータ) (2021-02-24T02:03:54Z) - Riemannian optimization of isometric tensor networks [0.0]
等長線のテンソルネットワークを最適化するために、勾配に基づく最適化手法が、例えば1次元量子ハミルトニアンの基底状態を表すためにどのように用いられるかを示す。
これらの手法を無限MPSとMERAの文脈に適用し、これまでに知られていた最適化手法よりも優れたベンチマーク結果を示す。
論文 参考訳(メタデータ) (2020-07-07T17:19:05Z) - Optimization at the boundary of the tensor network variety [2.1839191255085995]
テンソルネットワーク状態は、量子多体系の研究で広く用いられる変分アンザッツ類を形成する。
最近の研究により、この多様体の境界上の状態は、物理的興味のある状態に対するより効率的な表現をもたらすことが示されている。
局所ハミルトンの基底状態を見つけるために、このクラスを最適化する方法を示す。
論文 参考訳(メタデータ) (2020-06-30T16:58:55Z) - Neural Networks are Convex Regularizers: Exact Polynomial-time Convex
Optimization Formulations for Two-layer Networks [70.15611146583068]
我々は、線形整列ユニット(ReLU)を用いた2層ニューラルネットワークのトレーニングの正確な表現を開発する。
我々の理論は半無限双対性と最小ノルム正規化を利用する。
論文 参考訳(メタデータ) (2020-02-24T21:32:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。