論文の概要: Computing the gradients with respect to all parameters of a quantum
neural network using a single circuit
- arxiv url: http://arxiv.org/abs/2307.08167v2
- Date: Thu, 20 Jul 2023 23:08:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-24 15:08:17.476779
- Title: Computing the gradients with respect to all parameters of a quantum
neural network using a single circuit
- Title(参考訳): 単一回路を用いた量子ニューラルネットワークの全てのパラメータに関する勾配の計算
- Authors: Guang Ping He
- Abstract要約: 本稿では,回路深度を小さくし,古典レジスタを小さくした単一回路のみを用いた勾配計算手法を提案する。
また、実量子ハードウェアとシミュレータの両方において、回路が従来の手法よりもはるかに短い時間でコンパイルできるという利点があることを実験的に実証した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When computing the gradients of a quantum neural network using the
parameter-shift rule, the cost function needs to be calculated twice for the
gradient with respect to a single adjustable parameter of the network. When the
total number of parameters is high, the quantum circuit for the computation has
to be adjusted and run for many times. Here we propose an approach to compute
all the gradients using a single circuit only, with a much reduced circuit
depth and less classical registers. We also demonstrate experimentally, on both
real quantum hardware and simulator, that our approach has the advantages that
the circuit takes a significantly shorter time to compile than the conventional
approach, resulting in a speedup on the total runtime.
- Abstract(参考訳): パラメータシフト規則を用いて量子ニューラルネットワークの勾配を計算する場合、ネットワークの1つの調整可能なパラメータに対して、勾配に対してコスト関数を2回計算する必要がある。
パラメータの総数が多い場合には、計算のための量子回路を何度も調整して実行しなければならない。
本稿では,回路深度を小さくし,古典レジスタを小さくした単一回路のみを用いた勾配計算手法を提案する。
また、実量子ハードウェアとシミュレータの両方で実験により、回路が従来の手法よりもはるかに短い時間でコンパイルできるという利点があり、結果として全体の実行速度が向上することを示した。
関連論文リスト
- Efficient Learning for Linear Properties of Bounded-Gate Quantum Circuits [63.733312560668274]
d可変RZゲートとG-dクリフォードゲートを含む量子回路を与えられた場合、学習者は純粋に古典的な推論を行い、その線形特性を効率的に予測できるだろうか?
我々は、d で線形にスケーリングするサンプルの複雑さが、小さな予測誤差を達成するのに十分であり、対応する計算の複雑さは d で指数関数的にスケールすることを証明する。
我々は,予測誤差と計算複雑性をトレードオフできるカーネルベースの学習モデルを考案し,多くの実践的な環境で指数関数からスケーリングへ移行した。
論文 参考訳(メタデータ) (2024-08-22T08:21:28Z) - Backpropagation scaling in parameterised quantum circuits [0.0]
我々は、古典的にシミュレート可能でない回路を導入し、回路数を大幅に減らして勾配推定を許容する。
具体的には、これらの回路は勾配、高次偏微分、フィッシャー情報行列の高速な推定を可能にする。
16量子ビットの玩具分類問題では、これらの回路は他の手法と競合する性能を示し、トレーニングコストを約2桁削減する。
論文 参考訳(メタデータ) (2023-06-26T18:00:09Z) - Approximate Quantum Compiling for Quantum Simulation: A Tensor Network based approach [1.237454174824584]
行列生成状態(MPS)から短深さ量子回路を生成する新しいアルゴリズムであるAQCtensorを導入する。
我々のアプローチは、量子多体ハミルトニアンの時間進化から生じる量子状態の準備に特化している。
100量子ビットのシミュレーション問題に対して、AQCtensorは、結果の最適化回路の深さの少なくとも1桁の縮小を実現していることを示す。
論文 参考訳(メタデータ) (2023-01-20T14:40:29Z) - Accelerating the training of single-layer binary neural networks using
the HHL quantum algorithm [58.720142291102135]
Harrow-Hassidim-Lloyd (HHL) の量子力学的実装から有用な情報が抽出可能であることを示す。
しかし,本論文では,HHLの量子力学的実装から有用な情報を抽出し,古典的側面における解を見つける際の複雑性を低減することを目的としている。
論文 参考訳(メタデータ) (2022-10-23T11:58:05Z) - Escaping from the Barren Plateau via Gaussian Initializations in Deep Variational Quantum Circuits [63.83649593474856]
近年、変分量子回路は量子シミュレーションや量子機械学習に広く用いられている。
しかし、ランダムな構造を持つ量子回路は、回路深さと量子ビット数に関して指数関数的に消える勾配のため、トレーニング容易性が低い。
この結果は、ディープ量子回路が実用的なタスクでは実現できないという一般的な見解に繋がる。
論文 参考訳(メタデータ) (2022-03-17T15:06:40Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - Fast Swapping in a Quantum Multiplier Modelled as a Queuing Network [64.1951227380212]
量子回路をキューネットワークとしてモデル化することを提案する。
提案手法はスケーラビリティが高く,大規模量子回路のコンパイルに必要となる潜在的な速度と精度を有する。
論文 参考訳(メタデータ) (2021-06-26T10:55:52Z) - Optimal qubit assignment and routing via integer programming [0.22940141855172028]
論理量子回路を2ビット接続に制限のあるハードウェアにマッピングする問題を考察する。
我々はこの問題を2変数のネットワークフロー定式化を用いて整数線形プログラムとしてモデル化する。
本稿では,回路の忠実度,全深度,クロストークの尺度などのコスト関数について考察する。
論文 参考訳(メタデータ) (2021-06-11T15:02:26Z) - Ps and Qs: Quantization-aware pruning for efficient low latency neural
network inference [56.24109486973292]
超低遅延アプリケーションのためのニューラルネットワークのトレーニング中の分級と量子化の相互作用を研究します。
量子化アウェアプルーニングは,タスクのプルーニングや量子化のみよりも計算効率のよいモデルであることが判明した。
論文 参考訳(メタデータ) (2021-02-22T19:00:05Z) - Layerwise learning for quantum neural networks [7.2237324920669055]
パラメタライズド量子回路のレイヤワイズ学習戦略を示す。
回路深さは最適化中に漸進的に増加し、各トレーニングステップでパラメータのサブセットのみが更新される。
本研究では,手書き文字による画像分類タスクに対するアプローチを実証し,階層的学習が平均で8%低い一般化誤差を達成したことを示す。
論文 参考訳(メタデータ) (2020-06-26T10:44:46Z) - Improved quantum circuits for elliptic curve discrete logarithms [6.058525641792685]
楕円曲線スカラー乗算のための改良された量子回路を提案する。
可逆整数やモジュラ演算などの低レベル成分を最適化する。
Q#量子プログラミング言語における点加算の完全な実装を提供する。
論文 参考訳(メタデータ) (2020-01-27T04:08:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。