論文の概要: A Max-Flow approach to Random Tensor Networks
- arxiv url: http://arxiv.org/abs/2407.02559v1
- Date: Tue, 2 Jul 2024 18:00:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-04 18:33:58.572329
- Title: A Max-Flow approach to Random Tensor Networks
- Title(参考訳): ランダムテンソルネットワークへのマックスフローアプローチ
- Authors: Khurshed Fitter, Faedi Loulidi, Ion Nechita,
- Abstract要約: 確率論のツールを用いたランダムテンソルネットワーク(RTN)の絡み合いエントロピーについて検討する。
ランダムテンソルネットワーク(英: random tensor network)は、グラフ(またはネットワーク)構造によって決定される特定の幾何を持つテンソルに対する特定の確率モデルであると考えることができる。
- 参考スコア(独自算出の注目度): 0.40964539027092906
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: We study the entanglement entropy of a random tensor network (RTN) using tools from free probability theory. Random tensor networks are simple toy models that help the understanding of the entanglement behavior of a boundary region in the ADS/CFT context. One can think of random tensor networks are specific probabilistic models for tensors having some particular geometry dictated by a graph (or network) structure. We first introduce our model of RTN, obtained by contracting maximally entangled states (corresponding to the edges of the graph) on the tensor product of Gaussian tensors (corresponding to the vertices of the graph). We study the entanglement spectrum of the resulting random spectrum along a given bipartition of the local Hilbert spaces. We provide the limiting eigenvalue distribution of the reduced density operator of the RTN state, in the limit of large local dimension. The limit value is described via a maximum flow optimization problem in a new graph corresponding to the geometry of the RTN and the given bipartition. In the case of series-parallel graphs, we provide an explicit formula for the limiting eigenvalue distribution using classical and free multiplicative convolutions. We discuss the physical implications of our results, allowing us to go beyond the semiclassical regime without any cut assumption, specifically in terms of finite corrections to the average entanglement entropy of the RTN.
- Abstract(参考訳): 確率論のツールを用いたランダムテンソルネットワーク(RTN)の絡み合いエントロピーについて検討する。
ランダムテンソルネットワークは、ALS/CFTコンテキストにおける境界領域の絡み合いの理解を支援する単純な玩具モデルである。
ランダムテンソルネットワーク(英: random tensor network)は、グラフ(またはネットワーク)構造によって決定される特定の幾何を持つテンソルに対する特定の確率モデルであると考えることができる。
まず、ガウステンソルのテンソル積上の最大絡み合った状態(グラフのエッジに対応する)を(グラフの頂点に対応する)収縮させることで得られるRTNのモデルを紹介する。
局所ヒルベルト空間の与えられた二分法に沿ったランダムスペクトルの絡み合いスペクトルについて検討する。
RTN状態の縮小密度演算子の局所次元の制限値分布について検討する。
制限値は、RTNの幾何学と与えられた二分法に対応する新しいグラフにおいて、最大フロー最適化問題を介して記述される。
直列並列グラフの場合、古典的および自由乗法的畳み込みを用いて固有値分布を制限するための明示的な公式を提供する。
結果の物理的含意について議論し、カットされた仮定なしに半古典的な状態を超えて、特にRTNの平均絡み合いエントロピーに対する有限の補正を行えるようにした。
関連論文リスト
- Generalization of Geometric Graph Neural Networks [84.01980526069075]
幾何グラフニューラルネットワーク(GNN)の一般化能力について検討する。
我々は,このGNNの最適経験リスクと最適統計リスクとの一般化ギャップを証明した。
最も重要な観察は、前の結果のようにグラフのサイズに制限されるのではなく、1つの大きなグラフで一般化能力を実現することができることである。
論文 参考訳(メタデータ) (2024-09-08T18:55:57Z) - Tensor cumulants for statistical inference on invariant distributions [49.80012009682584]
我々は,PCAが信号の大きさの臨界値で計算的に困難になることを示す。
我々は、与えられた次数の不変量に対して明示的でほぼ直交的な基底を与える新しい対象の集合を定義する。
また、異なるアンサンブルを区別する新しい問題も分析できます。
論文 参考訳(メタデータ) (2024-04-29T14:33:24Z) - ResNorm: Tackling Long-tailed Degree Distribution Issue in Graph Neural
Networks via Normalization [80.90206641975375]
本稿では,正規化によるGNNの性能向上に焦点をあてる。
グラフ中のノード次数の長期分布を調べることにより、GNNの新しい正規化法を提案する。
ResNormの$scale$操作は、尾ノードの精度を向上させるために、ノード単位の標準偏差(NStd)分布を再設定する。
論文 参考訳(メタデータ) (2022-06-16T13:49:09Z) - Deep neural networks with dependent weights: Gaussian Process mixture
limit, heavy tails, sparsity and compressibility [18.531464406721412]
本稿では,重みに依存するディープフィードフォワードニューラルネットワークの無限幅限界について検討する。
ネットワークの各隠れノードは、そのノードの出力重みの分散を制御する非負のランダム変数が割り当てられる。
論文 参考訳(メタデータ) (2022-05-17T09:14:32Z) - On some theoretical limitations of Generative Adversarial Networks [77.34726150561087]
GANが任意の確率分布を生成できるという一般的な仮定である。
GANが重み付き分布を生成できないことを示すExtreme Value Theoryに基づく新しい結果を提供する。
論文 参考訳(メタデータ) (2021-10-21T06:10:38Z) - Nonperturbative renormalization for the neural network-QFT
correspondence [0.0]
この文脈で局所性とパワーカウンティングの概念を考察する。
Wetterich-Morris方程式を用いて非摂動的再正規化群を解析する。
我々の目的は、大きな幅の限界を超えたニューラルネットワークの振る舞いを調査するための有用なフォーマリズムを提供することである。
論文 参考訳(メタデータ) (2021-08-03T10:36:04Z) - Infinitely Wide Tensor Networks as Gaussian Process [1.7894377200944511]
本稿では、無限に広いネットワークとガウス過程の等価性を示す。
我々は無限極限テンソルネットワークに対応するガウス過程を実装し、これらのモデルのサンプルパスをプロットする。
論文 参考訳(メタデータ) (2021-01-07T02:29:15Z) - Random Geometric Graphs on Euclidean Balls [2.28438857884398]
ノード $i$ がユークリッド単位球上のランダム潜在点 $X_i$ に関連付けられたランダムグラフに対する潜在空間モデルを考える。
特定のリンク関数に対して、ここで考慮されたモデルは、パワーロー型の分布を持つ尾を持つ次数分布を持つグラフを生成する。
論文 参考訳(メタデータ) (2020-10-26T17:21:57Z) - Solving frustrated Ising models using tensor networks [0.0]
無限テンソルネットワーク % の観点でフラストレーションのあるイジングモデルを研究するための枠組みを開発する。
共有結合の重みを含むクラスタの選択を最適化することは、テンソルネットワークの収縮性にとって重要であることを示す。
本手法は, フラストレーションを施したイジングスピン系の残留エントロピーを, 次ネスト近傍の相互作用を持つ加ごめ格子上で計算することにより, 有効性を示す。
論文 参考訳(メタデータ) (2020-06-25T12:39:42Z) - Convex Geometry and Duality of Over-parameterized Neural Networks [70.15611146583068]
有限幅2層ReLUネットワークの解析のための凸解析手法を開発した。
正規化学習問題に対する最適解が凸集合の極点として特徴づけられることを示す。
高次元では、トレーニング問題は無限に多くの制約を持つ有限次元凸問題としてキャストできることが示される。
論文 参考訳(メタデータ) (2020-02-25T23:05:33Z) - Block-Approximated Exponential Random Graphs [77.4792558024487]
指数乱グラフ(ERG)の分野における重要な課題は、大きなグラフ上の非自明なERGの適合である。
本稿では,非自明なERGに対する近似フレームワークを提案する。
我々の手法は、数百万のノードからなるスパースグラフにスケーラブルである。
論文 参考訳(メタデータ) (2020-02-14T11:42:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。