論文の概要: Hierarchical Learning for Quantum ML: Novel Training Technique for
Large-Scale Variational Quantum Circuits
- arxiv url: http://arxiv.org/abs/2311.12929v1
- Date: Tue, 21 Nov 2023 19:00:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-23 17:24:59.466587
- Title: Hierarchical Learning for Quantum ML: Novel Training Technique for
Large-Scale Variational Quantum Circuits
- Title(参考訳): 量子MLのための階層学習:大規模変分量子回路の新しい訓練手法
- Authors: Hrant Gharibyan, Vincent Su, Hayk Tepanyan
- Abstract要約: 階層学習は、大規模変動量子回路の効率的なトレーニングのための新しい変分アーキテクチャである。
最重要な(量子)ビットが最終分布により大きな影響を与え、まず学習できることが示される。
これは、多数の量子ビット上での変分学習の実用的な実演である。
- 参考スコア(独自算出の注目度): 0.6906005491572401
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present hierarchical learning, a novel variational architecture for
efficient training of large-scale variational quantum circuits. We test and
benchmark our technique for distribution loading with quantum circuit born
machines (QCBMs). With QCBMs, probability distributions are loaded into the
squared amplitudes of computational basis vectors represented by bitstrings.
Our key insight is to take advantage of the fact that the most significant
(qu)bits have a greater effect on the final distribution and can be learned
first. One can think of it as a generalization of layerwise learning, where
some parameters of the variational circuit are learned first to prevent the
phenomena of barren plateaus. We briefly review adjoint methods for computing
the gradient, in particular for loss functions that are not expectation values
of observables. We first compare the role of connectivity in the variational
ansatz for the task of loading a Gaussian distribution on nine qubits, finding
that 2D connectivity greatly outperforms qubits arranged on a line. Based on
our observations, we then implement this strategy on large-scale numerical
experiments with GPUs, training a QCBM to reproduce a 3-dimensional
multivariate Gaussian distribution on 27 qubits up to $\sim4\%$ total variation
distance. Though barren plateau arguments do not strictly apply here due to the
objective function not being tied to an observable, this is to our knowledge
the first practical demonstration of variational learning on large numbers of
qubits. We also demonstrate hierarchical learning as a resource-efficient way
to load distributions for existing quantum hardware (IBM's 7 and 27 qubit
devices) in tandem with Fire Opal optimizations.
- Abstract(参考訳): 大規模変動量子回路の効率的なトレーニングのための新しい変分アーキテクチャである階層学習を提案する。
量子回路生成機 (QCBM) による分散負荷試験とベンチマークを行った。
QCBMでは、ビットストリングで表される計算基底ベクトルの2乗振幅に確率分布がロードされる。
私たちの重要な洞察は、最も重要な(qu)ビットが最終分布に大きな影響を与え、最初に学習できるという事実を活用することです。
これは、変動回路のいくつかのパラメータを最初に学習し、不毛高原の現象を防ぐ、階層的学習の一般化と考えることができる。
本稿では,オブザーバブルの期待値を持たない損失関数に対して,勾配を計算するための随伴法を簡潔に検討する。
まず, ガウス分布を9量子ビットにロードするタスクにおいて, 変分アンサッツにおける接続性の役割を比較検討した結果, 2次元接続が1行に配置された量子ビットを大きく上回ることがわかった。
そこで我々は,この戦略をGPUを用いた大規模数値実験で実施し,QCBMを用いて27量子ビットの3次元多変量ガウス分布を最大$\sim4\%=全変動距離で再現する。
ここでは、オブザーバブルと結び付けられない目的関数のため、バレンプラトーの議論は厳密には適用されないが、これは多くの量子ビット上での変分学習の最初の実践的な実演である。
また、階層学習は、既存の量子ハードウェア(IBMの7および27量子ビットデバイス)の分散をFire Opalの最適化と組み合わせてロードするリソース効率のよい方法であることを示した。
関連論文リスト
- Efficient Learning for Linear Properties of Bounded-Gate Quantum Circuits [63.733312560668274]
d可変RZゲートとG-dクリフォードゲートを含む量子回路を与えられた場合、学習者は純粋に古典的な推論を行い、その線形特性を効率的に予測できるだろうか?
我々は、d で線形にスケーリングするサンプルの複雑さが、小さな予測誤差を達成するのに十分であり、対応する計算の複雑さは d で指数関数的にスケールすることを証明する。
我々は,予測誤差と計算複雑性をトレードオフできるカーネルベースの学習モデルを考案し,多くの実践的な環境で指数関数からスケーリングへ移行した。
論文 参考訳(メタデータ) (2024-08-22T08:21:28Z) - Projected Stochastic Gradient Descent with Quantum Annealed Binary Gradients [51.82488018573326]
重み付きニューラルネットワークのトレーニングに適した,新しいレイヤワイドオプティマイザであるQP-SBGDを提案する。
BNNは、深層学習モデルの計算要求とエネルギー消費を最小限の精度で削減する。
提案アルゴリズムは階層的に実装されており,リソース制限量子ハードウェア上での大規模ネットワークのトレーニングに適している。
論文 参考訳(メタデータ) (2023-10-23T17:32:38Z) - Quantum state preparation for bell-shaped probability distributions using deconvolution methods [0.0]
量子データをロードするための古典量子ハイブリッド手法を提案する。
本稿では,Jensen-Shannon距離をコスト関数として用いて,古典的なステップから得られる結果の近接度と目標分布を定量化する。
デコンボリューションステップからの出力は、与えられた確率分布をロードするために必要な量子回路を構築するために使用される。
論文 参考訳(メタデータ) (2023-10-08T06:55:47Z) - A hybrid quantum-classical classifier based on branching multi-scale
entanglement renormalization ansatz [5.548873288570182]
本稿では,ラベル伝搬に基づく量子半教師付き分類器を提案する。
グラフ構築の難しさを考慮し,変分量子ラベル伝搬法(VQLP)を開発した。
本手法では、最適化に必要なパラメータを減らすために、局所パラメータ化量子回路を作成する。
論文 参考訳(メタデータ) (2023-03-14T13:46:45Z) - A didactic approach to quantum machine learning with a single qubit [68.8204255655161]
我々は、データ再ロード技術を用いて、単一のキュービットで学習するケースに焦点を当てる。
我々は、Qiskit量子コンピューティングSDKを用いて、おもちゃと現実世界のデータセットに異なる定式化を実装した。
論文 参考訳(メタデータ) (2022-11-23T18:25:32Z) - Protocols for Trainable and Differentiable Quantum Generative Modelling [21.24186888129542]
微分可能量子回路(DQC)としての確率分布の学習手法を提案する。
我々はDQCベースのモデルのトレーニングを行い、そこでデータは位相特徴写像で潜在空間にエンコードされ、次に変動量子回路が続く。
これにより、シングルショットの読み出しを使ってパラメタライズドディストリビューションからの高速サンプリングが可能になる。
論文 参考訳(メタデータ) (2022-02-16T18:55:48Z) - Tensor Ring Parametrized Variational Quantum Circuits for Large Scale
Quantum Machine Learning [28.026962110693695]
本稿では,テンソルリング表現を用いて回路内の量子状態を圧縮するアルゴリズムを提案する。
ストレージと計算時間は、正確なシミュレーションアルゴリズムによる指数的な増加と比較して、キュービット数とレイヤー数で線形に増加する。
We achieve a test accuracy of 83.33% on Iris dataset and a maximum of 99.30% and 76.31% on binary and ternary classification of MNIST dataset。
論文 参考訳(メタデータ) (2022-01-21T19:54:57Z) - Generative Quantum Learning of Joint Probability Distribution Functions [1.221966660783828]
我々はコプラをモデル化するための量子機械学習アルゴリズムを設計する。
任意のコプラを最大交絡状態に自然にマッピングできることが示される。
変分 ansatz を qopula' として定義すると、変数間の任意の相関が生成される。
論文 参考訳(メタデータ) (2021-09-13T20:50:15Z) - Cluster-Promoting Quantization with Bit-Drop for Minimizing Network
Quantization Loss [61.26793005355441]
クラスタ・プロモーティング・量子化(CPQ)は、ニューラルネットワークに最適な量子化グリッドを見つける。
DropBitsは、ニューロンの代わりにランダムにビットをドロップする標準のドロップアウト正規化を改訂する新しいビットドロップ技術である。
本手法を様々なベンチマークデータセットとネットワークアーキテクチャ上で実験的に検証する。
論文 参考訳(メタデータ) (2021-09-05T15:15:07Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - Direct Quantization for Training Highly Accurate Low Bit-width Deep
Neural Networks [73.29587731448345]
本稿では,低ビット幅重みとアクティベーションで深部畳み込みニューラルネットワークを訓練する2つの新しい手法を提案する。
まず、ビット幅の少ない重みを得るため、既存の方法の多くは、全精度ネットワーク重みで量子化することにより量子化重みを得る。
第二に、低ビット幅のアクティベーションを得るために、既存の作品はすべてのチャネルを等しく考慮する。
論文 参考訳(メタデータ) (2020-12-26T15:21:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。