論文の概要: Backpropagation scaling in parameterised quantum circuits
- arxiv url: http://arxiv.org/abs/2306.14962v1
- Date: Mon, 26 Jun 2023 18:00:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-28 16:00:03.693540
- Title: Backpropagation scaling in parameterised quantum circuits
- Title(参考訳): パラメータ化量子回路におけるバックプロパゲーションスケーリング
- Authors: Joseph Bowles, David Wierichs, Chae-Yeun Park
- Abstract要約: 本稿では,回路の勾配推定を比較的少ない回路で行う回路のクラスを紹介する。
16量子ビットの玩具分類問題では、これらの回路は他の手法と競合する性能を示し、トレーニングコストを約2桁削減する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The discovery of the backpropagation algorithm ranks among one of the most
important moments in the history of machine learning, and has made possible the
training of large-scale neural networks through its ability to compute
gradients at roughly the same computational cost as model evaluation. Despite
its importance, a similar backpropagation-like scaling for gradient evaluation
of parameterised quantum circuits has remained elusive. Currently, the best
known method requires sampling from a number of circuits that scales with the
number of circuit parameters, making training of large-scale quantum circuits
prohibitively expensive in practice. Here we address this problem by
introducing a class of structured circuits that admit gradient estimation with
significantly fewer circuits. In the simplest case -- for which the parameters
feed into commuting quantum gates -- these circuits allow for fast estimation
of the gradient, higher order partial derivatives and the Fisher information
matrix, and are not expected to suffer from the problem of vanishing gradients.
Moreover, classes of parameterised circuits exist for which the scaling of
gradient estimation is in line with classical backpropagation, and can thus be
trained at scale. In a toy classification problem on 16 qubits, such circuits
show competitive performance with other methods, while reducing the training
cost by about two orders of magnitude.
- Abstract(参考訳): バックプロパゲーションアルゴリズムの発見は、機械学習の歴史において最も重要な瞬間の1つであり、モデル評価とほぼ同等の計算コストで勾配を計算する能力を通じて、大規模ニューラルネットワークのトレーニングを可能にした。
その重要性にもかかわらず、パラメータ化量子回路の勾配評価のための同様のバックプロパゲーションのようなスケーリングは、いまだ解明されていない。
現在最もよく知られている方法は、回路パラメータの数に応じてスケールする多数の回路からサンプリングすることであり、大規模な量子回路のトレーニングは事実上高価である。
本稿では,より少ない回路で勾配推定を行う構造回路のクラスを導入することで,この問題に対処する。
最も単純な場合 -- パラメータが可換な量子ゲートに供給される -- では、これらの回路は勾配、高次偏微分、フィッシャー情報行列の高速な推定を可能にし、勾配の消失の問題に悩まされることはない。
さらに、パラメータ化回路のクラスは、勾配推定のスケーリングが古典的なバックプロパゲーションと一致しているため、スケールで訓練することができる。
16量子ビットのトイ分類問題において、そのような回路は他の方法と競合する性能を示し、トレーニングコストを約2桁削減する。
関連論文リスト
- QAdaPrune: Adaptive Parameter Pruning For Training Variational Quantum Circuits [2.3332157823623403]
emphQAdaPruneは適応パラメータのプルーニングアルゴリズムで、しきい値を自動的に決定し、冗長パラメータと非パフォーマンスパラメータをインテリジェントにプルーする。
得られたスパースパラメータ集合は、未計算の量子回路と同等に動作する量子回路を生成する。
論文 参考訳(メタデータ) (2024-08-23T19:57:40Z) - Adaptive Planning Search Algorithm for Analog Circuit Verification [53.97809573610992]
シミュレーションの少ない機械学習(ML)アプローチを提案する。
提案手法により,OCCを全回路の仕様に近づけることができることを示す。
論文 参考訳(メタデータ) (2023-06-23T12:57:46Z) - Parsimonious Optimisation of Parameters in Variational Quantum Circuits [1.303764728768944]
最適なパラメータを更新するために、1イテレーション毎に少なくとも2つの回路を実行する必要がある新しい量子勾配サンプリングを提案する。
提案手法は,古典的勾配降下に類似した収束率を達成し,勾配座標降下とSPSAを実証的に上回っている。
論文 参考訳(メタデータ) (2023-06-20T18:50:18Z) - Quantum circuit debugging and sensitivity analysis via local inversions [62.997667081978825]
本稿では,回路に最も影響を及ぼす量子回路の断面をピンポイントする手法を提案する。
我々は,IBM量子マシン上に実装されたアルゴリズム回路の例に応用して,提案手法の実用性と有効性を示す。
論文 参考訳(メタデータ) (2022-04-12T19:39:31Z) - Gaussian initializations help deep variational quantum circuits escape
from the barren plateau [87.04438831673063]
近年、変分量子回路は量子シミュレーションや量子機械学習に広く用いられている。
しかし、ランダムな構造を持つ量子回路は、回路深さと量子ビット数に関して指数関数的に消える勾配のため、トレーニング容易性が低い。
この結果、ディープ量子回路は実用的なタスクでは実現できないという一般的な信念が導かれる。
論文 参考訳(メタデータ) (2022-03-17T15:06:40Z) - Mode connectivity in the loss landscape of parameterized quantum
circuits [1.7546369508217283]
パラメータ化量子回路(PQC)の変分訓練は、近時雑音型中間スケール量子(NISQ)デバイスに多く採用されている。
PQCトレーニングにおける損失ランドスケープの特徴を研究するために、引用したraxler 2018essentiallyで使用されるコネクティビティの視覚化とテストを行うために、citegoodfellowqualitatively,li 2017で導入されたニューラルネットワークの定性的な損失ランドスケープのキャラクタリゼーションを適用した。
論文 参考訳(メタデータ) (2021-11-09T18:28:46Z) - FLIP: A flexible initializer for arbitrarily-sized parametrized quantum
circuits [105.54048699217668]
任意サイズのパラメタライズド量子回路のためのFLexible Initializerを提案する。
FLIPは任意の種類のPQCに適用することができ、初期パラメータの一般的なセットに頼る代わりに、成功したパラメータの構造を学ぶように調整されている。
本稿では, 3つのシナリオにおいてFLIPを用いることの利点を述べる。不毛な高原における問題ファミリ, 最大カット問題インスタンスを解くPQCトレーニング, 1次元フェルミ-ハッバードモデルの基底状態エネルギーを求めるPQCトレーニングである。
論文 参考訳(メタデータ) (2021-03-15T17:38:33Z) - Capacity and quantum geometry of parametrized quantum circuits [0.0]
パラメタライズド量子回路は、現在のデバイスで効果的に実装できる。
パラメータ空間の幾何学的構造を用いて,これらの回路のキャパシティとトレーニング性を評価する。
本結果は,変分量子アルゴリズムの改良を目的としたパラメタライズド量子回路の理解を深めるものである。
論文 参考訳(メタデータ) (2021-02-02T18:16:57Z) - Characterizing the loss landscape of variational quantum circuits [77.34726150561087]
本稿では,VQCの損失関数のヘシアンを計算する方法を紹介する。
この情報がどのように解釈され、従来のニューラルネットワークと比較されるかを示す。
論文 参考訳(メタデータ) (2020-08-06T17:48:12Z) - Machine Learning Optimization of Quantum Circuit Layouts [63.55764634492974]
本稿では量子回路マッピングQXXとその機械学習バージョンQXX-MLPを紹介する。
後者は、レイアウトされた回路の深さが小さくなるように最適なQXXパラメータ値を自動的に推論する。
近似を用いてレイアウト法を学習可能な経験的証拠を提示する。
論文 参考訳(メタデータ) (2020-07-29T05:26:19Z) - Layerwise learning for quantum neural networks [7.2237324920669055]
パラメタライズド量子回路のレイヤワイズ学習戦略を示す。
回路深さは最適化中に漸進的に増加し、各トレーニングステップでパラメータのサブセットのみが更新される。
本研究では,手書き文字による画像分類タスクに対するアプローチを実証し,階層的学習が平均で8%低い一般化誤差を達成したことを示す。
論文 参考訳(メタデータ) (2020-06-26T10:44:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。