論文の概要: Train on classical, deploy on quantum: scaling generative quantum machine learning to a thousand qubits
- arxiv url: http://arxiv.org/abs/2503.02934v1
- Date: Tue, 04 Mar 2025 19:00:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-06 15:51:55.066088
- Title: Train on classical, deploy on quantum: scaling generative quantum machine learning to a thousand qubits
- Title(参考訳): 古典的、量子上のデプロイのトレーニング:生成量子機械学習を1000量子ビットにスケールする
- Authors: Erik Recio-Armengol, Shahnawaz Ahmed, Joseph Bowles,
- Abstract要約: 量子回路に基づく瞬時生成モデルは,古典的ハードウェア上で効率的に学習可能であることを示す。
データ依存型パラメータ初期化戦略と組み合わせることで、不規則な高原の問題に遭遇することはない。
量子モデルは高次元データからうまく学習でき、単純なエネルギーベースの古典的生成モデルと比較して驚くほどよく機能する。
- 参考スコア(独自算出の注目度): 0.27309692684728604
- License:
- Abstract: We propose an approach to generative quantum machine learning that overcomes the fundamental scaling issues of variational quantum circuits. The core idea is to use a class of generative models based on instantaneous quantum polynomial circuits, which we show can be trained efficiently on classical hardware. Although training is classically efficient, sampling from these circuits is widely believed to be classically hard, and so computational advantages are possible when sampling from the trained model on quantum hardware. By combining our approach with a data-dependent parameter initialisation strategy, we do not encounter issues of barren plateaus and successfully circumvent the poor scaling of gradient estimation that plagues traditional approaches to quantum circuit optimisation. We investigate and evaluate our approach on a number of real and synthetic datasets, training models with up to one thousand qubits and hundreds of thousands of parameters. We find that the quantum models can successfully learn from high dimensional data, and perform surprisingly well compared to simple energy-based classical generative models trained with a similar amount of hyperparameter optimisation. Overall, our work demonstrates that a path to scalable quantum generative machine learning exists and can be investigated today at large scales.
- Abstract(参考訳): 本稿では,変動量子回路の基本的なスケーリング問題を克服する,生成量子機械学習へのアプローチを提案する。
中心となる考え方は、瞬時量子多項式回路に基づく生成モデルのクラスを使用することであり、これは古典的ハードウェア上で効率的に訓練できることを示している。
トレーニングは古典的に効率的であるが、これらの回路からのサンプリングは古典的に難しいと考えられており、量子ハードウェア上でトレーニングされたモデルからサンプリングする場合に計算上の利点が期待できる。
データ依存型パラメータ初期化戦略と組み合わせることで、バレンプラトーの問題に遭遇せず、量子回路最適化に対する従来のアプローチを悩ませる勾配推定の低スケールを回避できる。
我々は,多数の実・合成データセット,最大1万キュービットのトレーニングモデル,数十万のパラメータに対する我々のアプローチを調査し,評価する。
量子モデルは高次元データからうまく学習でき、同じ量のハイパーパラメータ最適化で訓練された単純なエネルギーベースの古典的生成モデルと比較して驚くほどよく機能する。
全体として、我々の研究は、スケーラブルな量子生成機械学習への道が存在し、現在、大規模に研究できることを示している。
関連論文リスト
- Efficient Learning for Linear Properties of Bounded-Gate Quantum Circuits [63.733312560668274]
d可変RZゲートとG-dクリフォードゲートを含む量子回路を与えられた場合、学習者は純粋に古典的な推論を行い、その線形特性を効率的に予測できるだろうか?
我々は、d で線形にスケーリングするサンプルの複雑さが、小さな予測誤差を達成するのに十分であり、対応する計算の複雑さは d で指数関数的にスケールすることを証明する。
我々は,予測誤差と計算複雑性をトレードオフできるカーネルベースの学習モデルを考案し,多くの実践的な環境で指数関数からスケーリングへ移行した。
論文 参考訳(メタデータ) (2024-08-22T08:21:28Z) - Scalable simulation of non-equilibrium quantum dynamics via classically optimised unitary circuits [0.0]
量子時間進化演算子を近似するために,一元的ブロックウォール回路を最適化する方法を示す。
様々な3体ハミルトニアンに対して、我々の手法は、その精度と量子回路の深さの両方でトロタライズを上回る量子回路を生成する。
また、量子デバイスとブロックウォール回路近似の組み合わせ誤差を最小限に抑える最適な時間ステップを選択する方法についても説明する。
論文 参考訳(メタデータ) (2023-12-21T19:00:35Z) - Quantum data learning for quantum simulations in high-energy physics [55.41644538483948]
本研究では,高エネルギー物理における量子データ学習の実践的問題への適用性について検討する。
我々は、量子畳み込みニューラルネットワークに基づくアンサッツを用いて、基底状態の量子位相を認識できることを数値的に示す。
これらのベンチマークで示された非自明な学習特性の観察は、高エネルギー物理学における量子データ学習アーキテクチャのさらなる探求の動機となる。
論文 参考訳(メタデータ) (2023-06-29T18:00:01Z) - Shadows of quantum machine learning [2.236957801565796]
トレーニング中にのみ量子リソースを必要とする量子モデルの新たなクラスを導入し、トレーニングされたモデルの展開は古典的である。
このモデルのクラスは古典的に展開された量子機械学習において普遍的であることを証明している。
論文 参考訳(メタデータ) (2023-05-31T18:00:02Z) - The Quantum Path Kernel: a Generalized Quantum Neural Tangent Kernel for
Deep Quantum Machine Learning [52.77024349608834]
古典的なディープニューラルネットワークの量子アナログを構築することは、量子コンピューティングにおける根本的な課題である。
鍵となる問題は、古典的なディープラーニングの本質的な非線形性にどのように対処するかである。
我々は、深層機械学習のこれらの側面を複製できる量子機械学習の定式化であるQuantum Path Kernelを紹介する。
論文 参考訳(メタデータ) (2022-12-22T16:06:24Z) - A didactic approach to quantum machine learning with a single qubit [68.8204255655161]
我々は、データ再ロード技術を用いて、単一のキュービットで学習するケースに焦点を当てる。
我々は、Qiskit量子コンピューティングSDKを用いて、おもちゃと現実世界のデータセットに異なる定式化を実装した。
論文 参考訳(メタデータ) (2022-11-23T18:25:32Z) - Classical surrogates for quantum learning models [0.7734726150561088]
本稿では,訓練された量子学習モデルから効率的に得られる古典的モデルである古典的サロゲートの概念を紹介する。
我々は、よく解析された再アップロードモデルの大規模なクラスが古典的なサロゲートを持つことを示す。
論文 参考訳(メタデータ) (2022-06-23T14:37:02Z) - Generalization Metrics for Practical Quantum Advantage in Generative
Models [68.8204255655161]
生成モデリングは量子コンピュータにとって広く受け入れられている自然のユースケースである。
我々は,アルゴリズムの一般化性能を計測して,生成モデリングのための実用的な量子優位性を探索する,単純で曖昧な手法を構築した。
シミュレーションの結果、我々の量子にインスパイアされたモデルは、目に見えない、有効なサンプルを生成するのに、最大で68倍の費用がかかります。
論文 参考訳(メタデータ) (2022-01-21T16:35:35Z) - Quantum machine learning beyond kernel methods [0.0]
パラメタライズド量子回路モデルは、カーネルの定式化よりも極めて優れた一般化性能を示すことを示す。
我々の結果は、カーネルの定式化の隣の量子機械学習モデルのより包括的な理論に向けた別のステップを構成する。
論文 参考訳(メタデータ) (2021-10-25T18:00:02Z) - Quantum algorithms for quantum dynamics: A performance study on the
spin-boson model [68.8204255655161]
量子力学シミュレーションのための量子アルゴリズムは、伝統的に時間進化作用素のトロッター近似の実装に基づいている。
変分量子アルゴリズムは欠かせない代替手段となり、現在のハードウェア上での小規模なシミュレーションを可能にしている。
量子ゲートコストが明らかに削減されているにもかかわらず、現在の実装における変分法は量子的優位性をもたらすことはありそうにない。
論文 参考訳(メタデータ) (2021-08-09T18:00:05Z) - Power of data in quantum machine learning [2.1012068875084964]
データから学習する古典機械によって、古典的に計算が難しい問題を簡単に予測できることが示される。
本稿では,フォールトトレラントシステムにおける学習問題に対して,単純かつ厳密な量子スピードアップを実現する量子モデルを提案する。
論文 参考訳(メタデータ) (2020-11-03T19:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。