論文の概要: Noncommutative Bohnenblust-Hille inequality in the Heisenberg-Weyl and
Gell-Mann bases with applications to fast learning
- arxiv url: http://arxiv.org/abs/2301.01438v2
- Date: Tue, 10 Jan 2023 03:00:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-15 23:08:25.152816
- Title: Noncommutative Bohnenblust-Hille inequality in the Heisenberg-Weyl and
Gell-Mann bases with applications to fast learning
- Title(参考訳): ハイゼンベルク・ワイル・ゲルマン基底における非可換ボネンブラスト・ヒル不等式と高速学習への応用
- Authors: Joseph Slote, Alexander Volberg, Haonan Zhang
- Abstract要約: 任意の局所次元の積空間に対する不等式を証明する。
Gell-Mann と Heisenberg-Weyl の基底における作用素分解を扱う。
- 参考スコア(独自算出の注目度): 70.25418443146435
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Previous noncommutative Bohnenblust--Hille inequalities addressed operator
decompositions in the tensor product space $SU(2)^{\otimes n}$
\cite{HCP22,VZ22}. Here we prove the inequalities for product spaces of
arbitrary local dimension, e.g., $SU(N)^{\otimes n}$ or $n$-fold tensor
products of $N\times N$ Hermitian matrices. We treat operator decompositions in
both the Gell-Mann and Heisenberg-Weyl bases by reducing to commutative cases.
The latter basis is reduced to a scalar Bohnenblust-Hille inequality for cyclic
groups which we also prove.
Applications to quantum junta theorems and learning qudit quantum observables
in the Probably Approximately Correct framework are also listed.
- Abstract(参考訳): 以前の非可換 Bohnenblust--Hille の不等式はテンソル積空間 $SU(2)^{\otimes n}$ \cite{HCP22,VZ22} における作用素分解に対処した。
ここでは任意の局所次元の積空間の不等式(例えば、$su(n)^{\otimes n}$ または $n$-fold tensor products of $n\times n$ hermitian matrices)を証明する。
我々はgell-mannとheisenberg-weyl基底の作用素分解を可換の場合に還元することで扱う。
後者の基底は、我々が証明した巡回群に対するスカラーbohnenblust-hille不等式に還元される。
量子ユンタ定理の応用や、おそらくほぼ正しい枠組みでqudit量子観測可能性の学習もリストアップされている。
関連論文リスト
- Neural network learns low-dimensional polynomials with SGD near the information-theoretic limit [75.4661041626338]
単一インデックス対象関数 $f_*(boldsymbolx) = textstylesigma_*left(langleboldsymbolx,boldsymbolthetarangleright)$ の等方的ガウスデータの下で勾配降下学習の問題を考察する。
SGDアルゴリズムで最適化された2層ニューラルネットワークは、サンプル付き任意のリンク関数の$f_*$を学習し、実行時の複雑さは$n asymp T asymp C(q) cdot dであることを示す。
論文 参考訳(メタデータ) (2024-06-03T17:56:58Z) - A Unified Framework for Uniform Signal Recovery in Nonlinear Generative
Compressed Sensing [68.80803866919123]
非線形測定では、ほとんどの先行結果は一様ではない、すなわち、すべての$mathbfx*$に対してではなく、固定された$mathbfx*$に対して高い確率で保持される。
本フレームワークはGCSに1ビット/一様量子化観測と単一インデックスモデルを標準例として適用する。
また、指標集合が計量エントロピーが低い製品プロセスに対して、より厳密な境界を生み出す濃度不等式も開発する。
論文 参考訳(メタデータ) (2023-09-25T17:54:19Z) - Efficiently Learning One-Hidden-Layer ReLU Networks via Schur
Polynomials [50.90125395570797]
正方形損失に関して、標準的なガウス分布の下での$k$ReLU活性化の線形結合をPAC学習する問題をmathbbRd$で検討する。
本研究の主な成果は,この学習課題に対して,サンプルおよび計算複雑性が$(dk/epsilon)O(k)$で,epsilon>0$が目標精度である。
論文 参考訳(メタデータ) (2023-07-24T14:37:22Z) - On the Sample Complexity of Two-Layer Networks: Lipschitz vs.
Element-Wise Lipschitz Activation [20.70453775428433]
本研究では,異なるアクティベーション関数を用いた有界二層ニューラルネットワークのサンプル複雑性について検討する。
我々は、$sigma$ が要素ワイドであれば、$mathcalH$ のサンプルの複雑さは、幅の対数依存しか持たないことを証明する。
論文 参考訳(メタデータ) (2022-11-17T16:27:15Z) - Learning a Single Neuron with Adversarial Label Noise via Gradient
Descent [50.659479930171585]
モノトン活性化に対する $mathbfxmapstosigma(mathbfwcdotmathbfx)$ の関数について検討する。
学習者の目標は仮説ベクトル $mathbfw$ that $F(mathbbw)=C, epsilon$ を高い確率で出力することである。
論文 参考訳(メタデータ) (2022-06-17T17:55:43Z) - Small Covers for Near-Zero Sets of Polynomials and Learning Latent
Variable Models [56.98280399449707]
我々は、s$ of cardinality $m = (k/epsilon)o_d(k1/d)$ に対して $epsilon$-cover が存在することを示す。
構造的結果に基づいて,いくつかの基本的高次元確率モデル隠れ変数の学習アルゴリズムを改良した。
論文 参考訳(メタデータ) (2020-12-14T18:14:08Z) - Emergent universality in critical quantum spin chains: entanglement
Virasoro algebra [1.9336815376402714]
エンタングルメントエントロピーとエンタングルメントスペクトルは、拡張多体系における量子エンタングルメントの特徴付けに広く用いられている。
シュミットベクトル $|v_alpharangle$ は境界 CFT のヴィラソロ代数の実現に対応する創発的普遍構造を示す。
論文 参考訳(メタデータ) (2020-09-23T21:22:51Z) - Classical Dynamics from Self-Consistency Equations in Quantum Mechanics
-- Extended Version [0.0]
我々は、ボナの非線形量子力学の一般化に対する新しい数学的アプローチを提案する。
自己整合性の中心的な役割を強調します。
いくつかの新しい数学的概念が紹介され、これはおそらくそれ自体が興味深い。
論文 参考訳(メタデータ) (2020-09-10T16:20:25Z) - Q-learning with Uniformly Bounded Variance: Large Discounting is Not a
Barrier to Fast Learning [7.6146285961466]
我々は、すべての$gamma 1$に対して一様に束縛されたサンプル複雑性を持つ新しいアルゴリズムのクラスを導入する。
最適化されたステップサイズシーケンスとQ-ラーニングアルゴリズムの共分散は、1/(1-ガンマ)$の二次関数であることを示す。
論文 参考訳(メタデータ) (2020-02-24T15:12:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。