論文の概要: Computing the gradients with respect to all parameters of a quantum neural network using a single circuit
- arxiv url: http://arxiv.org/abs/2307.08167v4
- Date: Thu, 30 Jan 2025 10:10:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-31 15:13:17.187277
- Title: Computing the gradients with respect to all parameters of a quantum neural network using a single circuit
- Title(参考訳): 単一回路を用いた量子ニューラルネットワークの全てのパラメータに関する勾配の計算
- Authors: Guang Ping He,
- Abstract要約: 単一回路のみを用いて全ての勾配を計算する手法を提案する。
我々は、量子シミュレータとIBMの実量子ハードウェアの両方に対して、我々のアプローチを実験的に検証する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Finding gradients is a crucial step in training machine learning models. For quantum neural networks, computing gradients using the parameter-shift rule requires calculating the cost function twice for each adjustable parameter in the network. When the total number of parameters is large, the quantum circuit must be repeatedly adjusted and executed, leading to significant computational overhead. Here we propose an approach to compute all gradients using a single circuit only, significantly reducing both the circuit depth and the number of classical registers required. We experimentally validate our approach on both quantum simulators and IBM's real quantum hardware, demonstrating that our method significantly reduces circuit compilation time compared to the conventional approach, resulting in a substantial speedup in total runtime.
- Abstract(参考訳): 勾配を見つけることは、機械学習モデルをトレーニングする上で重要なステップである。
量子ニューラルネットワークの場合、パラメータシフト規則を用いた計算勾配は、ネットワーク内の各調整可能なパラメータに対して2倍のコスト関数を計算する必要がある。
パラメータの総数が大きければ、量子回路は繰り返し調整され、実行されなければならない。
本稿では,1つの回路のみを用いてすべての勾配を計算する手法を提案する。
我々は、量子シミュレータとIBMの実量子ハードウェアの両方に対する我々のアプローチを実験的に検証し、我々の手法が従来の手法に比べて回路のコンパイル時間を著しく短縮し、結果として総実行時間を大幅に高速化することを示した。
関連論文リスト
- Efficient Learning for Linear Properties of Bounded-Gate Quantum Circuits [63.733312560668274]
d可変RZゲートとG-dクリフォードゲートを含む量子回路を与えられた場合、学習者は純粋に古典的な推論を行い、その線形特性を効率的に予測できるだろうか?
我々は、d で線形にスケーリングするサンプルの複雑さが、小さな予測誤差を達成するのに十分であり、対応する計算の複雑さは d で指数関数的にスケールすることを証明する。
我々は,予測誤差と計算複雑性をトレードオフできるカーネルベースの学習モデルを考案し,多くの実践的な環境で指数関数からスケーリングへ移行した。
論文 参考訳(メタデータ) (2024-08-22T08:21:28Z) - Backpropagation scaling in parameterised quantum circuits [0.0]
我々は、古典的にシミュレート可能でない回路を導入し、回路数を大幅に減らして勾配推定を許容する。
具体的には、これらの回路は勾配、高次偏微分、フィッシャー情報行列の高速な推定を可能にする。
16量子ビットの玩具分類問題では、これらの回路は他の手法と競合する性能を示し、トレーニングコストを約2桁削減する。
論文 参考訳(メタデータ) (2023-06-26T18:00:09Z) - Approximate Quantum Compiling for Quantum Simulation: A Tensor Network based approach [1.237454174824584]
行列生成状態(MPS)から短深さ量子回路を生成する新しいアルゴリズムであるAQCtensorを導入する。
我々のアプローチは、量子多体ハミルトニアンの時間進化から生じる量子状態の準備に特化している。
100量子ビットのシミュレーション問題に対して、AQCtensorは、結果の最適化回路の深さの少なくとも1桁の縮小を実現していることを示す。
論文 参考訳(メタデータ) (2023-01-20T14:40:29Z) - Accelerating the training of single-layer binary neural networks using
the HHL quantum algorithm [58.720142291102135]
Harrow-Hassidim-Lloyd (HHL) の量子力学的実装から有用な情報が抽出可能であることを示す。
しかし,本論文では,HHLの量子力学的実装から有用な情報を抽出し,古典的側面における解を見つける際の複雑性を低減することを目的としている。
論文 参考訳(メタデータ) (2022-10-23T11:58:05Z) - Escaping from the Barren Plateau via Gaussian Initializations in Deep Variational Quantum Circuits [63.83649593474856]
近年、変分量子回路は量子シミュレーションや量子機械学習に広く用いられている。
しかし、ランダムな構造を持つ量子回路は、回路深さと量子ビット数に関して指数関数的に消える勾配のため、トレーニング容易性が低い。
この結果は、ディープ量子回路が実用的なタスクでは実現できないという一般的な見解に繋がる。
論文 参考訳(メタデータ) (2022-03-17T15:06:40Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - Fast Swapping in a Quantum Multiplier Modelled as a Queuing Network [64.1951227380212]
量子回路をキューネットワークとしてモデル化することを提案する。
提案手法はスケーラビリティが高く,大規模量子回路のコンパイルに必要となる潜在的な速度と精度を有する。
論文 参考訳(メタデータ) (2021-06-26T10:55:52Z) - Optimal qubit assignment and routing via integer programming [0.22940141855172028]
論理量子回路を2ビット接続に制限のあるハードウェアにマッピングする問題を考察する。
我々はこの問題を2変数のネットワークフロー定式化を用いて整数線形プログラムとしてモデル化する。
本稿では,回路の忠実度,全深度,クロストークの尺度などのコスト関数について考察する。
論文 参考訳(メタデータ) (2021-06-11T15:02:26Z) - Ps and Qs: Quantization-aware pruning for efficient low latency neural
network inference [56.24109486973292]
超低遅延アプリケーションのためのニューラルネットワークのトレーニング中の分級と量子化の相互作用を研究します。
量子化アウェアプルーニングは,タスクのプルーニングや量子化のみよりも計算効率のよいモデルであることが判明した。
論文 参考訳(メタデータ) (2021-02-22T19:00:05Z) - Layerwise learning for quantum neural networks [7.2237324920669055]
パラメタライズド量子回路のレイヤワイズ学習戦略を示す。
回路深さは最適化中に漸進的に増加し、各トレーニングステップでパラメータのサブセットのみが更新される。
本研究では,手書き文字による画像分類タスクに対するアプローチを実証し,階層的学習が平均で8%低い一般化誤差を達成したことを示す。
論文 参考訳(メタデータ) (2020-06-26T10:44:46Z) - Improved quantum circuits for elliptic curve discrete logarithms [6.058525641792685]
楕円曲線スカラー乗算のための改良された量子回路を提案する。
可逆整数やモジュラ演算などの低レベル成分を最適化する。
Q#量子プログラミング言語における点加算の完全な実装を提供する。
論文 参考訳(メタデータ) (2020-01-27T04:08:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。