論文の概要: Avoiding local minima in variational quantum eigensolvers with the
natural gradient optimizer
- arxiv url: http://arxiv.org/abs/2004.14666v2
- Date: Tue, 19 May 2020 09:29:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-21 17:24:21.100203
- Title: Avoiding local minima in variational quantum eigensolvers with the
natural gradient optimizer
- Title(参考訳): 自然勾配最適化器を用いた変分量子固有解法における局所最小値の回避
- Authors: David Wierichs, Christian Gogolin, Michael Kastoryano
- Abstract要約: 変分量子固有解法(VQEs)の文脈におけるBFGS,ADAM,NatGradの比較
本稿では, 横フィールドイジングモデル(TFIM)のQAOAアンサッツと, ハミルトニアンの対称性を破ることのできる過パラメータ回路の性能について解析する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We compare the BFGS optimizer, ADAM and Natural Gradient Descent (NatGrad) in
the context of Variational Quantum Eigensolvers (VQEs). We systematically
analyze their performance on the QAOA ansatz for the Transverse Field Ising
Model (TFIM) as well as on overparametrized circuits with the ability to break
the symmetry of the Hamiltonian. The BFGS algorithm is frequently unable to
find a global minimum for systems beyond about 20 spins and ADAM easily gets
trapped in local minima. On the other hand, NatGrad shows stable performance on
all considered system sizes, albeit at a significantly higher cost per epoch.
In sharp contrast to most classical gradient based learning, the performance of
all optimizers is found to decrease upon seemingly benign overparametrization
of the ansatz class, with BFGS and ADAM failing more often and more severely
than NatGrad. Additional tests for the Heisenberg XXZ model corroborate the
accuracy problems of BFGS in high dimensions, but they reveal some shortcomings
of NatGrad as well. Our results suggest that great care needs to be taken in
the choice of gradient based optimizers and the parametrization for VQEs.
- Abstract(参考訳): 変分量子固有解法(VQE)の文脈において,BFGSオプティマイザ,ADAM,Natural Gradient Descent(NatGrad)を比較した。
我々は, 横フィールドイジングモデル(TFIM)のQAOAアンサッツと, ハミルトニアンの対称性を破ることのできる過パラメータ回路の性能を系統的に解析する。
BFGSアルゴリズムは、およそ20スピンを超えるシステムにおいて、グローバルな最小値を見つけることができず、ADAMはローカルなミニマに簡単に閉じ込められる。
一方、NatGradは、エポックあたりのコストが著しく高いにもかかわらず、すべての考慮されたシステムサイズで安定したパフォーマンスを示す。
多くの古典的な勾配に基づく学習とは対照的に、全ての最適化器の性能は、アンザッツクラスの過度な過度なパラメータ化によって低下し、BFGSとADAMはNatGradよりも頻繁に、より深刻に失敗する。
ハイゼンベルク XXZ モデルのさらなるテストは、高次元における BFGS の精度問題と相関するが、NatGrad の欠点も明らかにしている。
以上の結果から,VQEの勾配に基づくオプティマイザの選択とパラメトリゼーションに注意が必要であることが示唆された。
関連論文リスト
- Achieving Constraints in Neural Networks: A Stochastic Augmented
Lagrangian Approach [49.1574468325115]
DNN(Deep Neural Networks)の正規化は、一般化性の向上とオーバーフィッティングの防止に不可欠である。
制約付き最適化問題としてトレーニングプロセスのフレーミングによるDNN正規化に対する新しいアプローチを提案する。
我々はAugmented Lagrangian (SAL) 法を用いて、より柔軟で効率的な正規化機構を実現する。
論文 参考訳(メタデータ) (2023-10-25T13:55:35Z) - Nonconvex Stochastic Bregman Proximal Gradient Method for Nonconvex Composite Problems [9.202586157819693]
非合成対象関数の勾配法は、典型的には微分可能部分のリプシッツ滑らかさに依存する。
非目的の非Lipschitz勾配を扱う近似モデルを提案する。
ステップ選択感度の観点から最適なロバスト性が得られることを示す。
論文 参考訳(メタデータ) (2023-06-26T08:54:46Z) - An Empirical Comparison of Optimizers for Quantum Machine Learning with
SPSA-based Gradients [1.2532932830320982]
本研究では,SPSAからの近似勾配と最先端の古典勾配を併用した新しい手法を提案する。
単純な回帰タスクにおいて、収束率と絶対誤差の点で標準SPSAとパラメータシフト則の両方に優れることを示す。
論文 参考訳(メタデータ) (2023-04-27T15:19:49Z) - Using Differential Evolution to avoid local minima in Variational
Quantum Algorithms [0.0]
変分量子アルゴリズム(VQA)は、量子コンピューティングを利用する最も有望なNISQ時代のアルゴリズムの一つである。
本研究の目的は,局所的ミニマ問題や大理石高原問題の影響を回避・低減できる代替最適化手法を検討することである。
論文 参考訳(メタデータ) (2023-03-21T20:31:06Z) - SketchySGD: Reliable Stochastic Optimization via Randomized Curvature
Estimates [19.420605210427635]
SketchySGDは、サブサンプルヘッセンに対するランダム化低ランク近似を用いることで、機械学習の既存の勾配法を改善する。
固定段数を持つSketchySGDが最適の周りの小さな球に線形に収束することを理論的に示す。
条件のない設定では、最小二乗問題に対してSketchySGDはSGDよりも高速に収束することを示す。
論文 参考訳(メタデータ) (2022-11-16T01:05:41Z) - Improved Convergence Rate of Stochastic Gradient Langevin Dynamics with
Variance Reduction and its Application to Optimization [50.83356836818667]
勾配ランゲヴィン・ダイナミクスは非エプス最適化問題を解くための最も基本的なアルゴリズムの1つである。
本稿では、このタイプの2つの変種、すなわち、分散還元ランジュバンダイナミクスと再帰勾配ランジュバンダイナミクスを示す。
論文 参考訳(メタデータ) (2022-03-30T11:39:00Z) - Predicting parameters for the Quantum Approximate Optimization Algorithm
for MAX-CUT from the infinite-size limit [0.05076419064097732]
推定次数$d$のランダムエルドス・レーニグラフに適用したMAX-CUT上でのQAOAの性能を評価するための明示的なアルゴリズムを提案する。
この解析により、エルドス・レーニグラフ上のMAX-CUTのQAOAパラメータとシェリントン・カークパトリックモデルとの明示的なマッピングが得られる。
論文 参考訳(メタデータ) (2021-10-20T17:58:53Z) - Cauchy-Schwarz Regularized Autoencoder [68.80569889599434]
変分オートエンコーダ(VAE)は、強力で広く使われている生成モデルのクラスである。
GMMに対して解析的に計算できるCauchy-Schwarz分散に基づく新しい制約対象を導入する。
本研究の目的は,密度推定,教師なしクラスタリング,半教師なし学習,顔分析における変分自動エンコーディングモデルの改善である。
論文 参考訳(メタデータ) (2021-01-06T17:36:26Z) - Balancing Rates and Variance via Adaptive Batch-Size for Stochastic
Optimization Problems [120.21685755278509]
本研究は,ステップサイズの減衰が正確な収束に必要であるという事実と,一定のステップサイズがエラーまでの時間でより速く学習するという事実のバランスをとることを目的とする。
ステップサイズのミニバッチを最初から修正するのではなく,パラメータを適応的に進化させることを提案する。
論文 参考訳(メタデータ) (2020-07-02T16:02:02Z) - Taming GANs with Lookahead-Minmax [63.90038365274479]
MNIST, SVHN, CIFAR-10, ImageNetによる実験結果から, Lookahead-minmaxとAdam, Exgradientの併用が明らかとなった。
30倍のパラメータと16倍のミニバッチを使用して、クラスラベルを使わずに12.19のFIDを得ることにより、CIFAR-10上でクラス依存のBigGANのパフォーマンスを上回ります。
論文 参考訳(メタデータ) (2020-06-25T17:13:23Z) - Towards Better Understanding of Adaptive Gradient Algorithms in
Generative Adversarial Nets [71.05306664267832]
適応アルゴリズムは勾配の歴史を用いて勾配を更新し、深層ニューラルネットワークのトレーニングにおいてユビキタスである。
本稿では,非コンケーブ最小値問題に対するOptimisticOAアルゴリズムの変種を解析する。
実験の結果,適応型GAN非適応勾配アルゴリズムは経験的に観測可能であることがわかった。
論文 参考訳(メタデータ) (2019-12-26T22:10:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。