論文の概要: Theory for Equivariant Quantum Neural Networks
- arxiv url: http://arxiv.org/abs/2210.08566v2
- Date: Sat, 11 May 2024 01:14:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-15 02:01:31.831523
- Title: Theory for Equivariant Quantum Neural Networks
- Title(参考訳): 等価量子ニューラルネットワークの理論
- Authors: Quynh T. Nguyen, Louis Schatzki, Paolo Braccia, Michael Ragone, Patrick J. Coles, Frederic Sauvage, Martin Larocca, M. Cerezo,
- Abstract要約: 本質的に任意の対称性群に対して等変量子ニューラルネットワーク(EQNN)を設計するための理論的枠組みを提案する。
私たちのフレームワークは、量子機械学習のほぼすべての領域に簡単に適用できます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantum neural network architectures that have little-to-no inductive biases are known to face trainability and generalization issues. Inspired by a similar problem, recent breakthroughs in machine learning address this challenge by creating models encoding the symmetries of the learning task. This is materialized through the usage of equivariant neural networks whose action commutes with that of the symmetry. In this work, we import these ideas to the quantum realm by presenting a comprehensive theoretical framework to design equivariant quantum neural networks (EQNN) for essentially any relevant symmetry group. We develop multiple methods to construct equivariant layers for EQNNs and analyze their advantages and drawbacks. Our methods can find unitary or general equivariant quantum channels efficiently even when the symmetry group is exponentially large or continuous. As a special implementation, we show how standard quantum convolutional neural networks (QCNN) can be generalized to group-equivariant QCNNs where both the convolution and pooling layers are equivariant to the symmetry group. We then numerically demonstrate the effectiveness of a SU(2)-equivariant QCNN over symmetry-agnostic QCNN on a classification task of phases of matter in the bond-alternating Heisenberg model. Our framework can be readily applied to virtually all areas of quantum machine learning. Lastly, we discuss about how symmetry-informed models such as EQNNs provide hopes to alleviate central challenges such as barren plateaus, poor local minima, and sample complexity.
- Abstract(参考訳): インダクティブバイアスがほとんどない量子ニューラルネットワークアーキテクチャは、トレーニング容易性と一般化の問題に直面していることが知られている。
同様の問題にインスパイアされた最近の機械学習のブレークスルーは、学習タスクの対称性をコードするモデルを作成することで、この問題に対処している。
これは、作用が対称性のそれと可換である同変ニューラルネットワークの使用によって実現される。
本研究では、これらのアイデアを量子領域にインポートし、任意の関連する対称性群に対して同変量子ニューラルネットワーク(EQNN)を設計するための包括的な理論的枠組みを示す。
我々は、EQNNの同変層を構築するための複数の手法を開発し、その利点と欠点を分析する。
我々の手法は、対称性群が指数関数的に大きい場合や連続である場合であっても、ユニタリまたは一般同変量子チャネルを効率的に見つけることができる。
特殊実装として,標準量子畳み込みニューラルネットワーク (QCNN) を群等価QCNNに一般化する方法を示す。
次に, 対称性に依存しないQCNNに対するSU(2)-同変QCNNの有効性を, 結合交互ハイゼンベルクモデルにおける物質相の分類タスクにおいて数値的に示す。
私たちのフレームワークは、量子機械学習のほぼすべての領域に簡単に適用できます。
最後に、EQNNのような対称性に富んだモデルが、不毛の高原、低局所のミニマ、サンプルの複雑さといった中心的な課題を軽減するためにどのように役立つかについて議論する。
関連論文リスト
- Resource-efficient equivariant quantum convolutional neural networks [0.0]
本研究では、同変分割並列化QCNN(sp-QCNN)と呼ばれる同変量子畳み込みニューラルネットワーク(QCNN)の資源効率モデルを提案する。
グループ理論的アプローチを用いて、以前のsp-QCNNで対処された翻訳対称性を超えて、一般対称性をモデルにエンコードする。
この結果は,実用的な量子機械学習アルゴリズムの進歩に寄与する。
論文 参考訳(メタデータ) (2024-10-02T05:51:33Z) - The role of data embedding in equivariant quantum convolutional neural
networks [2.255961793913651]
等変量子ニューラルネットワーク(EQNN)の性能に及ぼす古典量子埋め込みの影響について検討する。
等価な量子畳み込みニューラルネットワーク(QCNN)から得られた3種類の振幅埋め込みと、EQCNNの分類精度を数値的に比較する。
論文 参考訳(メタデータ) (2023-12-20T18:25:15Z) - Approximately Equivariant Quantum Neural Network for $p4m$ Group
Symmetries in Images [30.01160824817612]
本研究では、平面$p4m$対称性に基づく画像分類のための同変量子畳み込みニューラルネットワーク(EquivQCNNs)を提案する。
2次元イジングモデルの位相検出や拡張MNISTデータセットの分類など、さまざまなユースケースでテストされた結果を示す。
論文 参考訳(メタデータ) (2023-10-03T18:01:02Z) - Towards Neural Variational Monte Carlo That Scales Linearly with System
Size [67.09349921751341]
量子多体問題(Quantum many-body problem)は、例えば高温超伝導体のようなエキゾチックな量子現象をデミストする中心である。
量子状態を表すニューラルネットワーク(NN)と変分モンテカルロ(VMC)アルゴリズムの組み合わせは、そのような問題を解決する上で有望な方法であることが示されている。
ベクトル量子化技術を用いて,VMCアルゴリズムの局所エネルギー計算における冗長性を利用するNNアーキテクチャVector-Quantized Neural Quantum States (VQ-NQS)を提案する。
論文 参考訳(メタデータ) (2022-12-21T19:00:04Z) - Theoretical Guarantees for Permutation-Equivariant Quantum Neural
Networks [0.0]
等変量子ニューラルネットワーク(QNN)の構築方法を示す。
我々は、不毛の高原に苦しめられず、すぐに過度なパラメータ化に達し、少量のデータからよく一般化されることを証明した。
我々の研究は、同変QNNに対する最初の理論的保証を提供し、GQMLの極端なパワーとポテンシャルを示している。
論文 参考訳(メタデータ) (2022-10-18T16:35:44Z) - Symmetric Pruning in Quantum Neural Networks [111.438286016951]
量子ニューラルネットワーク(QNN)は、現代の量子マシンの力を発揮する。
ハンドクラフト対称アンサーゼを持つQNNは、一般に非対称アンサーゼを持つものよりも訓練性が高い。
本稿では,QNNのグローバル最適収束を定量化するために,実効量子ニューラルネットワークカーネル(EQNTK)を提案する。
論文 参考訳(メタデータ) (2022-08-30T08:17:55Z) - The dilemma of quantum neural networks [63.82713636522488]
量子ニューラルネットワーク(QNN)は、古典的な学習モデルに対して何の恩恵も与えないことを示す。
QNNは、現実世界のデータセットの一般化が不十分な、極めて限られた有効モデル能力に悩まされている。
これらの結果から、現在のQNNの役割を再考し、量子的優位性で現実の問題を解決するための新しいプロトコルを設計せざるを得ない。
論文 参考訳(メタデータ) (2021-06-09T10:41:47Z) - Negational Symmetry of Quantum Neural Networks for Binary Pattern
Classification [10.0076368843188]
量子ニューラルネットワーク(QNN)は、単純な機械学習タスクを解く上で有望な結果を示している。
本稿では,量子二分法と量子表現学習の両面において,QNNに埋め込まれた新しい不変形式を提示し,解析する。
Googleの量子コンピューティングフレームワークを用いて、二項パターン分類タスクにおけるQNNの否定対称性を実証的に評価する。
論文 参考訳(メタデータ) (2021-05-20T08:13:38Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z) - Entanglement Classification via Neural Network Quantum States [58.720142291102135]
本稿では、学習ツールと量子絡み合いの理論を組み合わせて、純状態における多部量子ビット系の絡み合い分類を行う。
我々は、ニューラルネットワーク量子状態(NNS)として知られる制限されたボルツマンマシン(RBM)アーキテクチャにおいて、人工ニューラルネットワークを用いた量子システムのパラメータ化を用いる。
論文 参考訳(メタデータ) (2019-12-31T07:40:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。