論文の概要: R\'enyi mutual information in quantum field theory, tensor networks, and
gravity
- arxiv url: http://arxiv.org/abs/2308.08600v1
- Date: Wed, 16 Aug 2023 18:00:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-21 19:05:28.727134
- Title: R\'enyi mutual information in quantum field theory, tensor networks, and
gravity
- Title(参考訳): 量子場理論、テンソルネットワーク、重力におけるR'enyi相互情報
- Authors: Jonah Kudler-Flam, Laimei Nie, Akash Vijay
- Abstract要約: 我々は、$alpha-z$ R'enyi mutual informations (RMIs)と呼ばれる相関測度を探索する。
R'enyi エントロピーの線型結合を含む RMI の概念とは異なり、$alpha-z$ RMI は正の半定値であり、量子演算の下で単調に減少する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We explore a large class of correlation measures called the $\alpha-z$
R\'enyi mutual informations (RMIs). Unlike the commonly used notion of RMI
involving linear combinations of R\'enyi entropies, the $\alpha-z$ RMIs are
positive semi-definite and monotonically decreasing under quantum operations,
making them sensible measures of total (quantum and classical) correlations.
This follows from their descendance from R\'enyi relative entropies. In
addition to upper bounding connected correlation functions between subsystems,
we prove the much stronger statement that for certain values of $\alpha$ and
$z$, the $\alpha-z$ RMIs also lower bound connected correlation functions. We
develop an easily implementable replica trick which enables us to compute the
$\alpha-z$ RMIs in a variety of many-body systems including conformal field
theories, free fermions, random tensor networks, and holography.
- Abstract(参考訳): 我々は、RMI ($\alpha-z$ R\enyi mutual informations) と呼ばれる大規模な相関測度を探索する。
R'enyi エントロピーの線型結合を含む RMI の概念とは異なり、$\alpha-z$ RMIs は量子演算の下で正半定値で単調に減少し、全(量子と古典)相関の有意義な測度となる。
これはR'enyi 相対エントロピーに由来する。
サブシステム間の上界連結相関関数に加えて、$\alpha$ と $z$ の値に対して $\alpha-z$ rmis もまた境界連結相関関数を低くする、というより強い主張を証明する。
我々は、共形場理論、自由フェルミオン、ランダムテンソルネットワーク、ホログラフィを含む多体システムにおいて、$\alpha-z$ RMIを計算できる簡単な実装可能なレプリカトリックを開発した。
関連論文リスト
- Learning sum of diverse features: computational hardness and efficient gradient-based training for ridge combinations [40.77319247558742]
目的関数 $f_*:mathbbRdtomathbbR$ を加法構造で学習する際の計算複雑性について検討する。
2層ニューラルネットワークの勾配学習により,$f_*$の大規模なサブセットを効率的に学習できることを実証した。
論文 参考訳(メタデータ) (2024-06-17T17:59:17Z) - Neural network learns low-dimensional polynomials with SGD near the information-theoretic limit [75.4661041626338]
単一インデックス対象関数 $f_*(boldsymbolx) = textstylesigma_*left(langleboldsymbolx,boldsymbolthetarangleright)$ の勾配勾配勾配学習問題について検討する。
SGDに基づくアルゴリズムにより最適化された2層ニューラルネットワークは、情報指数に支配されない複雑さで$f_*$を学習する。
論文 参考訳(メタデータ) (2024-06-03T17:56:58Z) - Tensor cumulants for statistical inference on invariant distributions [49.80012009682584]
我々は,PCAが信号の大きさの臨界値で計算的に困難になることを示す。
我々は、与えられた次数の不変量に対して明示的でほぼ直交的な基底を与える新しい対象の集合を定義する。
また、異なるアンサンブルを区別する新しい問題も分析できます。
論文 参考訳(メタデータ) (2024-04-29T14:33:24Z) - Federated Empirical Risk Minimization via Second-Order Method [18.548661105227488]
連合学習環境下での一般的な経験的リスク最小化問題を解決するためのインテリアポイント法(IPM)を提案する。
IPMの各イテレーションの通信複雑性は$tildeO(d3/2)$であり、$d$はデータセットの次元(つまり、多くの機能)である。
論文 参考訳(メタデータ) (2023-05-27T14:23:14Z) - R\'enyi Mutual Information in Quantum Field Theory [0.0]
量子場理論におけるR'enyi相互情報(RMI)の適切な定義について検討する。
標準的な定義とは異なり、我々が計算するRMIはサブシステム間の相関の真の尺度である。
論文 参考訳(メタデータ) (2022-11-02T18:00:03Z) - Neural Network Approximation of Continuous Functions in High Dimensions
with Applications to Inverse Problems [6.84380898679299]
現在の理論では、ネットワークは問題の次元で指数関数的にスケールすべきだと予測されている。
ニューラルネットワークがH"より古い(あるいは一様)連続関数を近似するのに要する複雑性を境界付ける一般的な方法を提案する。
論文 参考訳(メタデータ) (2022-08-28T22:44:07Z) - Correlation Functions in Random Fully Connected Neural Networks at
Finite Width [17.51364577113718]
この記事では、ガウスのランダムな重みとバイアスと$L$の隠蔽層を持つ完全に接続されたニューラルネットワークについて考察する。
有界非線形性に対しては、ネットワーク出力とその導関数の共役相関関数に対して1/n$の急激な再帰推定を与える。
いずれの場合も、深さと幅の比$L/n$は、個々のニューロンのゆらぎのスケールとニューロン間相関の大きさの両方を制御し、有効なネットワーク深さの役割を担っている。
論文 参考訳(メタデータ) (2022-04-03T11:57:18Z) - R\'enyi divergence inequalities via interpolation, with applications to
generalised entropic uncertainty relations [91.3755431537592]
量子R'enyiエントロピー量、特に'サンドウィッチ'の発散量について検討する。
我々は、R'enyi相互情報分解規則、R'enyi条件エントロピー三部類連鎖規則に対する新しいアプローチ、より一般的な二部類比較を示す。
論文 参考訳(メタデータ) (2021-06-19T04:06:23Z) - On Function Approximation in Reinforcement Learning: Optimism in the
Face of Large State Spaces [208.67848059021915]
強化学習のコアにおける探索・探索トレードオフについて検討する。
特に、関数クラス $mathcalF$ の複雑さが関数の複雑さを特徴づけていることを証明する。
私たちの後悔の限界はエピソードの数とは無関係です。
論文 参考訳(メタデータ) (2020-11-09T18:32:22Z) - Reinforcement Learning with General Value Function Approximation:
Provably Efficient Approach via Bounded Eluder Dimension [124.7752517531109]
一般値関数近似を用いた効率の良い強化学習アルゴリズムを確立する。
我々のアルゴリズムは、$d$が複雑性測度である場合、$widetildeO(mathrmpoly(dH)sqrtT)$の後悔の限界を達成することを示す。
我々の理論は線形値関数近似によるRLの最近の進歩を一般化し、環境モデルに対する明示的な仮定をしない。
論文 参考訳(メタデータ) (2020-05-21T17:36:09Z) - Robustly Learning any Clusterable Mixture of Gaussians [55.41573600814391]
本研究では,高次元ガウス混合系の対向ロバスト条件下での効率的な学習性について検討する。
理論的に最適に近い誤り証明である$tildeO(epsilon)$の情報を、$epsilon$-corrupted $k$-mixtureで学習するアルゴリズムを提供する。
我々の主な技術的貢献は、ガウス混合系からの新しい頑健な識別可能性証明クラスターであり、これは正方形の定度証明システムによって捉えることができる。
論文 参考訳(メタデータ) (2020-05-13T16:44:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。