論文の概要: Quantum Deep Equilibrium Models
- arxiv url: http://arxiv.org/abs/2410.23940v1
- Date: Thu, 31 Oct 2024 13:54:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-01 17:02:34.499269
- Title: Quantum Deep Equilibrium Models
- Title(参考訳): 量子深部平衡モデル
- Authors: Philipp Schleich, Marta Skreta, Lasse B. Kristensen, Rodrigo A. Vargas-Hernández, Alán Aspuru-Guzik,
- Abstract要約: 本稿では,量子機械学習モデルのパラメータを学習するトレーニングパラダイムであるQuantum Deep Equilibrium Models (QDEQ)を紹介する。
QDEQは、既存の同等のベースラインモデルと競合するだけでなく、5倍以上のレイヤを持つネットワークよりも高いパフォーマンスを実現している。
このことは、QDEQパラダイムが与えられたタスクに対してより浅い量子回路を開発するのに利用できることを示している。
- 参考スコア(独自算出の注目度): 1.5853439776721878
- License:
- Abstract: The feasibility of variational quantum algorithms, the most popular correspondent of neural networks on noisy, near-term quantum hardware, is highly impacted by the circuit depth of the involved parametrized quantum circuits (PQCs). Higher depth increases expressivity, but also results in a detrimental accumulation of errors. Furthermore, the number of parameters involved in the PQC significantly influences the performance through the necessary number of measurements to evaluate gradients, which scales linearly with the number of parameters. Motivated by this, we look at deep equilibrium models (DEQs), which mimic an infinite-depth, weight-tied network using a fraction of the memory by employing a root solver to find the fixed points of the network. In this work, we present Quantum Deep Equilibrium Models (QDEQs): a training paradigm that learns parameters of a quantum machine learning model given by a PQC using DEQs. To our knowledge, no work has yet explored the application of DEQs to QML models. We apply QDEQs to find the parameters of a quantum circuit in two settings: the first involves classifying MNIST-4 digits with 4 qubits; the second extends it to 10 classes of MNIST, FashionMNIST and CIFAR. We find that QDEQ is not only competitive with comparable existing baseline models, but also achieves higher performance than a network with 5 times more layers. This demonstrates that the QDEQ paradigm can be used to develop significantly more shallow quantum circuits for a given task, something which is essential for the utility of near-term quantum computers. Our code is available at https://github.com/martaskrt/qdeq.
- Abstract(参考訳): 雑音、短期量子ハードウェア上でのニューラルネットワークの最も一般的な対応である変分量子アルゴリズムの実現可能性は、関連するパラメトリック量子回路(PQC)の回路深さに大きく影響される。
より深い深さは表現力を増加させるが、結果としてエラーが減少する。
さらに、PQCに関わるパラメータの数は、パラメータの数と線形にスケールする勾配を評価するために必要な測定数を通じて、性能に大きく影響する。
そこで本研究では, 根解器を用いてネットワークの固定点を求めることにより, メモリのごく一部を用いて, 無限深度で重み付けされたネットワークを模倣するディープ均衡モデル(DEQ)について検討する。
本稿では,量子深度平衡モデル(QDEQs: Quantum Deep Equilibrium Models: QDEQs):DECを用いてPQCが与える量子機械学習モデルのパラメータを学習する訓練パラダイムを提案する。
我々の知る限りでは、QMLモデルへのDECの適用についてはまだ検討されていない。
まず、MNIST-4桁を4キュービットで分類し、次に、MNIST、FashionMNIST、CIFARの10クラスに拡張する。
QDEQは、既存の同等のベースラインモデルと競合するだけでなく、5倍以上のレイヤを持つネットワークよりも高いパフォーマンスを実現している。
このことは、QDEQパラダイムが与えられたタスクに対してより浅い量子回路を開発するのに利用できることを示している。
私たちのコードはhttps://github.com/martaskrt/qdeq.comから入手可能です。
関連論文リスト
- Extending Quantum Perceptrons: Rydberg Devices, Multi-Class Classification, and Error Tolerance [67.77677387243135]
量子ニューロモーフィックコンピューティング(QNC)は、量子計算とニューラルネットワークを融合して、量子機械学習(QML)のためのスケーラブルで耐雑音性のあるアルゴリズムを作成する
QNCの中核は量子パーセプトロン(QP)であり、相互作用する量子ビットのアナログダイナミクスを利用して普遍的な量子計算を可能にする。
論文 参考訳(メタデータ) (2024-11-13T23:56:20Z) - The Quantum Imitation Game: Reverse Engineering of Quantum Machine Learning Models [2.348041867134616]
量子機械学習(QML)は、機械学習モデルと量子コンピューティングのパラダイムを融合させる。
量子コンピューティングのNoisy Intermediate-Scale Quantum(NISQ)時代における多くのサードパーティベンダーの拡大により、QMLモデルのセキュリティが最重要となる。
我々は、信頼できない量子クラウドプロバイダが、推論中にトランスパイルされたユーザ設計のトレーニングされたQMLモデルにホワイトボックスアクセスを持つ敵であると仮定する。
論文 参考訳(メタデータ) (2024-07-09T21:35:19Z) - A Quantum-Classical Collaborative Training Architecture Based on Quantum
State Fidelity [50.387179833629254]
我々は,コ・テンク (co-TenQu) と呼ばれる古典量子アーキテクチャを導入する。
Co-TenQuは古典的なディープニューラルネットワークを41.72%まで向上させる。
他の量子ベースの手法よりも1.9倍も優れており、70.59%少ない量子ビットを使用しながら、同様の精度を達成している。
論文 参考訳(メタデータ) (2024-02-23T14:09:41Z) - QuantumSEA: In-Time Sparse Exploration for Noise Adaptive Quantum
Circuits [82.50620782471485]
QuantumSEAはノイズ適応型量子回路のインタイムスパース探索である。
1)トレーニング中の暗黙の回路容量と(2)雑音の頑健さの2つの主要な目標を達成することを目的としている。
提案手法は, 量子ゲート数の半減と回路実行の2倍の時間節約で, 最先端の計算結果を確立する。
論文 参考訳(メタデータ) (2024-01-10T22:33:00Z) - Quantum Polar Metric Learning: Efficient Classically Learned Quantum
Embeddings [0.984462697073239]
量子極距離学習(QPMeL)を提案し,古典的モデルを用いて量子ビットの極形パラメータを学習する。
次に、$R_y$と$R_z$の浅いPQCを使って状態を作り、$ZZ(theta)$-gatesのトレーニング可能なレイヤで絡み合いを学習します。
QMeLアプローチと比較すると、QPMeLはゲート数と深さの1/2しか使用せず、3倍のマルチクラス分離を実現している。
論文 参考訳(メタデータ) (2023-12-04T06:13:53Z) - QNEAT: Natural Evolution of Variational Quantum Circuit Architecture [95.29334926638462]
我々は、ニューラルネットワークの量子対する最も有望な候補として登場した変分量子回路(VQC)に注目した。
有望な結果を示す一方で、バレン高原、重みの周期性、アーキテクチャの選択など、さまざまな問題のために、VQCのトレーニングは困難である。
本稿では,VQCの重みとアーキテクチャの両方を最適化するために,自然進化にインスパイアされた勾配のないアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-04-14T08:03:20Z) - Quantum Imitation Learning [74.15588381240795]
本稿では、量子優位性を利用してILを高速化する量子模倣学習(QIL)を提案する。
量子行動クローニング(Q-BC)と量子生成逆模倣学習(Q-GAIL)という2つのQILアルゴリズムを開発した。
実験結果から,Q-BCとQ-GAILの両者が,従来のものと同等の性能を達成できることが判明した。
論文 参考訳(メタデータ) (2023-04-04T12:47:35Z) - Deterministic and random features for large-scale quantum kernel machine [0.9404723842159504]
提案した決定論的およびランダムな特徴を用いて量子カーネル法(QKM)をスケーラブルにすることができることを示す。
O(1,000) sim O(10,000)$トレーニングデータを含むデータセットを用いた数値実験は,本手法の有効性を裏付けるものである。
論文 参考訳(メタデータ) (2022-09-05T13:22:34Z) - Multiqubit state learning with entangling quantum generative adversarial
networks [0.0]
マルチビット学習のためのエンタングル量子GAN(EQ-GAN)について検討する。
EQ-GANはSWAPテストよりも効率的に回路を学習できることを示す。
また、EQ-GANを用いて最大6キュービットのランダムな状態学習を、異なる2キュービットゲートを用いて検討する。
論文 参考訳(メタデータ) (2022-04-20T18:00:01Z) - DeepQMLP: A Scalable Quantum-Classical Hybrid DeepNeural Network
Architecture for Classification [6.891238879512672]
量子機械学習(QML)は、従来の機械学習(ML)タスクの潜在的なスピードアップと改善を約束している。
本稿では、古典的なディープニューラルネットワークアーキテクチャにインスパイアされたスケーラブルな量子古典ハイブリッドニューラルネットワーク(DeepQMLP)アーキテクチャを提案する。
DeepQMLPは、ノイズ下での推論において、最大25.3%の損失と7.92%の精度を提供する。
論文 参考訳(メタデータ) (2022-02-02T15:29:46Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。