論文の概要: Backpropagation scaling in parameterised quantum circuits
- arxiv url: http://arxiv.org/abs/2306.14962v2
- Date: Thu, 7 Dec 2023 15:05:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-08 18:34:54.637665
- Title: Backpropagation scaling in parameterised quantum circuits
- Title(参考訳): パラメータ化量子回路におけるバックプロパゲーションスケーリング
- Authors: Joseph Bowles, David Wierichs, Chae-Yeun Park
- Abstract要約: 我々は、古典的にシミュレート可能でない回路を導入し、回路数を大幅に減らして勾配推定を許容する。
具体的には、これらの回路は勾配、高次偏微分、フィッシャー情報行列の高速な推定を可能にする。
16量子ビットの玩具分類問題では、これらの回路は他の手法と競合する性能を示し、トレーニングコストを約2桁削減する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The discovery of the backpropagation algorithm ranks among one of the most
important moments in the history of machine learning, and has made possible the
training of large-scale neural networks through its ability to compute
gradients at roughly the same computational cost as model evaluation. Despite
its importance, a similar backpropagation-like scaling for gradient evaluation
of parameterised quantum circuits has remained elusive. Currently, the most
popular method requires sampling from a number of circuits that scales with the
number of circuit parameters, making training of large-scale quantum circuits
prohibitively expensive in practice. Here we address this problem by
introducing a class of structured circuits that are not known to be classically
simulable and admit gradient estimation with significantly fewer circuits. In
the simplest case -- for which the parameters feed into commuting quantum gates
-- these circuits allow for fast estimation of the gradient, higher order
partial derivatives and the Fisher information matrix. Moreover, specific
families of parameterised circuits exist for which the scaling of gradient
estimation is in line with classical backpropagation, and can thus be trained
at scale. In a toy classification problem on 16 qubits, such circuits show
competitive performance with other methods, while reducing the training cost by
about two orders of magnitude.
- Abstract(参考訳): バックプロパゲーションアルゴリズムの発見は、機械学習の歴史において最も重要な瞬間の1つであり、モデル評価とほぼ同等の計算コストで勾配を計算する能力を通じて、大規模ニューラルネットワークのトレーニングを可能にした。
その重要性にもかかわらず、パラメータ化量子回路の勾配評価のための同様のバックプロパゲーションのようなスケーリングは、いまだ解明されていない。
現在最も一般的な方法は、回路パラメータの数に応じてスケールする多数の回路からのサンプリングを必要としており、大規模な量子回路のトレーニングは事実上高価である。
ここでは、古典的同調性が知られていない構造化回路のクラスを導入することでこの問題に対処し、より少ない回路で勾配推定を行う。
最も単純な場合 -- パラメータが可換量子ゲートに供給される -- では、これらの回路は勾配、高次部分微分、フィッシャー情報行列の高速推定を可能にする。
さらに、パラメータ化回路の特定の族は、勾配推定のスケーリングが古典的なバックプロパゲーションと一致しており、スケールで訓練することができる。
16量子ビットのトイ分類問題において、そのような回路は他の方法と競合する性能を示し、トレーニングコストを約2桁削減する。
関連論文リスト
- QAdaPrune: Adaptive Parameter Pruning For Training Variational Quantum Circuits [2.3332157823623403]
emphQAdaPruneは適応パラメータのプルーニングアルゴリズムで、しきい値を自動的に決定し、冗長パラメータと非パフォーマンスパラメータをインテリジェントにプルーする。
得られたスパースパラメータ集合は、未計算の量子回路と同等に動作する量子回路を生成する。
論文 参考訳(メタデータ) (2024-08-23T19:57:40Z) - Adaptive Planning Search Algorithm for Analog Circuit Verification [53.97809573610992]
シミュレーションの少ない機械学習(ML)アプローチを提案する。
提案手法により,OCCを全回路の仕様に近づけることができることを示す。
論文 参考訳(メタデータ) (2023-06-23T12:57:46Z) - Parsimonious Optimisation of Parameters in Variational Quantum Circuits [1.303764728768944]
最適なパラメータを更新するために、1イテレーション毎に少なくとも2つの回路を実行する必要がある新しい量子勾配サンプリングを提案する。
提案手法は,古典的勾配降下に類似した収束率を達成し,勾配座標降下とSPSAを実証的に上回っている。
論文 参考訳(メタデータ) (2023-06-20T18:50:18Z) - Quantum circuit debugging and sensitivity analysis via local inversions [62.997667081978825]
本稿では,回路に最も影響を及ぼす量子回路の断面をピンポイントする手法を提案する。
我々は,IBM量子マシン上に実装されたアルゴリズム回路の例に応用して,提案手法の実用性と有効性を示す。
論文 参考訳(メタデータ) (2022-04-12T19:39:31Z) - Gaussian initializations help deep variational quantum circuits escape
from the barren plateau [87.04438831673063]
近年、変分量子回路は量子シミュレーションや量子機械学習に広く用いられている。
しかし、ランダムな構造を持つ量子回路は、回路深さと量子ビット数に関して指数関数的に消える勾配のため、トレーニング容易性が低い。
この結果、ディープ量子回路は実用的なタスクでは実現できないという一般的な信念が導かれる。
論文 参考訳(メタデータ) (2022-03-17T15:06:40Z) - Mode connectivity in the loss landscape of parameterized quantum
circuits [1.7546369508217283]
パラメータ化量子回路(PQC)の変分訓練は、近時雑音型中間スケール量子(NISQ)デバイスに多く採用されている。
PQCトレーニングにおける損失ランドスケープの特徴を研究するために、引用したraxler 2018essentiallyで使用されるコネクティビティの視覚化とテストを行うために、citegoodfellowqualitatively,li 2017で導入されたニューラルネットワークの定性的な損失ランドスケープのキャラクタリゼーションを適用した。
論文 参考訳(メタデータ) (2021-11-09T18:28:46Z) - FLIP: A flexible initializer for arbitrarily-sized parametrized quantum
circuits [105.54048699217668]
任意サイズのパラメタライズド量子回路のためのFLexible Initializerを提案する。
FLIPは任意の種類のPQCに適用することができ、初期パラメータの一般的なセットに頼る代わりに、成功したパラメータの構造を学ぶように調整されている。
本稿では, 3つのシナリオにおいてFLIPを用いることの利点を述べる。不毛な高原における問題ファミリ, 最大カット問題インスタンスを解くPQCトレーニング, 1次元フェルミ-ハッバードモデルの基底状態エネルギーを求めるPQCトレーニングである。
論文 参考訳(メタデータ) (2021-03-15T17:38:33Z) - Capacity and quantum geometry of parametrized quantum circuits [0.0]
パラメタライズド量子回路は、現在のデバイスで効果的に実装できる。
パラメータ空間の幾何学的構造を用いて,これらの回路のキャパシティとトレーニング性を評価する。
本結果は,変分量子アルゴリズムの改良を目的としたパラメタライズド量子回路の理解を深めるものである。
論文 参考訳(メタデータ) (2021-02-02T18:16:57Z) - Characterizing the loss landscape of variational quantum circuits [77.34726150561087]
本稿では,VQCの損失関数のヘシアンを計算する方法を紹介する。
この情報がどのように解釈され、従来のニューラルネットワークと比較されるかを示す。
論文 参考訳(メタデータ) (2020-08-06T17:48:12Z) - Machine Learning Optimization of Quantum Circuit Layouts [63.55764634492974]
本稿では量子回路マッピングQXXとその機械学習バージョンQXX-MLPを紹介する。
後者は、レイアウトされた回路の深さが小さくなるように最適なQXXパラメータ値を自動的に推論する。
近似を用いてレイアウト法を学習可能な経験的証拠を提示する。
論文 参考訳(メタデータ) (2020-07-29T05:26:19Z) - Layerwise learning for quantum neural networks [7.2237324920669055]
パラメタライズド量子回路のレイヤワイズ学習戦略を示す。
回路深さは最適化中に漸進的に増加し、各トレーニングステップでパラメータのサブセットのみが更新される。
本研究では,手書き文字による画像分類タスクに対するアプローチを実証し,階層的学習が平均で8%低い一般化誤差を達成したことを示す。
論文 参考訳(メタデータ) (2020-06-26T10:44:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。