論文の概要: Theoretical Guarantees for Permutation-Equivariant Quantum Neural
Networks
- arxiv url: http://arxiv.org/abs/2210.09974v1
- Date: Tue, 18 Oct 2022 16:35:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 14:12:13.627298
- Title: Theoretical Guarantees for Permutation-Equivariant Quantum Neural
Networks
- Title(参考訳): 置換同変量子ニューラルネットワークの理論的保証
- Authors: Louis Schatzki, Martin Larocca, Frederic Sauvage, M. Cerezo
- Abstract要約: 幾何学量子機械学習(GQML)は、これらの問題の潜在的な解決策として登場した。
S_n$-equivariant QNNの構築方法を示す。
我々の研究は、同変QNNに対する最初の理論的保証を提供し、GQMLの極端なパワーとポテンシャルを示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the great promise of quantum machine learning models, there are
several challenges one must overcome before unlocking their full potential. For
instance, models based on quantum neural networks (QNNs) can suffer from
excessive local minima and barren plateaus in their training landscapes.
Recently, the nascent field of geometric quantum machine learning (GQML) has
emerged as a potential solution to some of those issues. The key insight of
GQML is that one should design architectures, such as equivariant QNNs,
encoding the symmetries of the problem at hand. Here, we focus on problems with
permutation symmetry (i.e., the group of symmetry $S_n$), and show how to build
$S_n$-equivariant QNNs. We provide an analytical study of their performance,
proving that they do not suffer from barren plateaus, quickly reach
overparametrization, and can generalize well from small amounts of data. To
verify our results, we perform numerical simulations for a graph state
classification task. Our work provides the first theoretical guarantees for
equivariant QNNs, thus indicating the extreme power and potential of GQML.
- Abstract(参考訳): 量子機械学習モデルの大きな約束にもかかわらず、その潜在能力を解き放つ前に克服しなければならない課題がいくつかある。
例えば、量子ニューラルネットワーク(qnn)に基づくモデルは、トレーニング環境において、局所的な極小と不毛の高原に苦しむ可能性がある。
近年、幾何量子機械学習(GQML)の新たな分野が、これらの問題の潜在的な解決策として浮上している。
GQMLのキーとなる洞察は、同変QNNのようなアーキテクチャを設計し、問題の対称性を符号化すべきであるということである。
ここでは、置換対称性(つまり対称性の群$S_n$)の問題に焦点を当て、$S_n$-equivariant QNNを構築する方法を示す。
我々は,それらの性能の分析研究を行い,不毛高原に苦しめられず,過小パラメータ化に至らず,少量のデータから十分に一般化できることを示した。
この結果を検証するために,グラフ状態分類タスクの数値シミュレーションを行う。
我々の研究は、同変QNNに対する最初の理論的保証を提供し、GQMLの極端なパワーとポテンシャルを示している。
関連論文リスト
- Permutation-equivariant quantum convolutional neural networks [1.7034813545878589]
等価量子畳み込みニューラルネットワーク(EQCNN)のアーキテクチャを$S_n$とそのサブグループに適応させる。
S_n$のサブグループの場合、MNISTデータセットを用いた数値計算の結果、非同変QCNNよりも高い分類精度を示す。
論文 参考訳(メタデータ) (2024-04-28T14:34:28Z) - Projected Stochastic Gradient Descent with Quantum Annealed Binary Gradients [51.82488018573326]
重み付きニューラルネットワークのトレーニングに適した,新しいレイヤワイドオプティマイザであるQP-SBGDを提案する。
BNNは、深層学習モデルの計算要求とエネルギー消費を最小限の精度で削減する。
提案アルゴリズムは階層的に実装されており,リソース制限量子ハードウェア上での大規模ネットワークのトレーニングに適している。
論文 参考訳(メタデータ) (2023-10-23T17:32:38Z) - Approximately Equivariant Quantum Neural Network for $p4m$ Group
Symmetries in Images [30.01160824817612]
本研究では、平面$p4m$対称性に基づく画像分類のための同変量子畳み込みニューラルネットワーク(EquivQCNNs)を提案する。
2次元イジングモデルの位相検出や拡張MNISTデータセットの分類など、さまざまなユースケースでテストされた結果を示す。
論文 参考訳(メタデータ) (2023-10-03T18:01:02Z) - QNEAT: Natural Evolution of Variational Quantum Circuit Architecture [95.29334926638462]
我々は、ニューラルネットワークの量子対する最も有望な候補として登場した変分量子回路(VQC)に注目した。
有望な結果を示す一方で、バレン高原、重みの周期性、アーキテクチャの選択など、さまざまな問題のために、VQCのトレーニングは困難である。
本稿では,VQCの重みとアーキテクチャの両方を最適化するために,自然進化にインスパイアされた勾配のないアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-04-14T08:03:20Z) - Towards Neural Variational Monte Carlo That Scales Linearly with System
Size [67.09349921751341]
量子多体問題(Quantum many-body problem)は、例えば高温超伝導体のようなエキゾチックな量子現象をデミストする中心である。
量子状態を表すニューラルネットワーク(NN)と変分モンテカルロ(VMC)アルゴリズムの組み合わせは、そのような問題を解決する上で有望な方法であることが示されている。
ベクトル量子化技術を用いて,VMCアルゴリズムの局所エネルギー計算における冗長性を利用するNNアーキテクチャVector-Quantized Neural Quantum States (VQ-NQS)を提案する。
論文 参考訳(メタデータ) (2022-12-21T19:00:04Z) - Theory for Equivariant Quantum Neural Networks [0.0]
本質的に任意の対称性群に対して等変量子ニューラルネットワーク(EQNN)を設計するための理論的枠組みを提案する。
私たちのフレームワークは、量子機械学習のほぼすべての領域に簡単に適用できます。
論文 参考訳(メタデータ) (2022-10-16T15:42:21Z) - GHN-Q: Parameter Prediction for Unseen Quantized Convolutional
Architectures via Graph Hypernetworks [80.29667394618625]
我々は,未知の量子化CNNアーキテクチャのパラメータの予測にグラフハイパーネットを用いることを初めて検討した。
我々は、CNNの探索空間の縮小に着目し、GHN-Qが実際に8ビットの量子化されたCNNの量子化-ロバストパラメータを予測できることを見出した。
論文 参考訳(メタデータ) (2022-08-26T08:00:02Z) - Theory of overparametrization in quantum neural networks [0.0]
周期構造を持つ量子ニューラルネットワーク(QNN)における過パラメトリゼーション現象を厳密に解析する。
この結果から、QNN の生成元から得られるリー代数の次元は、$M_c$ の上界であることが分かる。
次に、過パラメータ化の概念をQNNキャパシティに結びつけることにより、QNNが過パラメータ化されると、そのキャパシティはその最大値を達成する。
論文 参考訳(メタデータ) (2021-09-23T22:39:48Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。