論文の概要: Benchmarking a wide range of optimisers for solving the Fermi-Hubbard model using the variational quantum eigensolver
- arxiv url: http://arxiv.org/abs/2411.13742v1
- Date: Wed, 20 Nov 2024 22:54:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-22 15:20:51.856593
- Title: Benchmarking a wide range of optimisers for solving the Fermi-Hubbard model using the variational quantum eigensolver
- Title(参考訳): 変分量子固有解法を用いたFermi-Hubbardモデル解くための幅広いオプティマイザのベンチマーク
- Authors: Benjamin D. M. Jones, Lana Mineh, Ashley Montanaro,
- Abstract要約: 我々は、Fermi-Hubbardシステムを解くために、変分量子固有解器の372のインスタンスに30のオプティマイザをベンチマークした。
最終エネルギーの達成や一定の許容レベルに達するために必要な関数呼び出しといった指標に関して、オプティマイザをランク付けする。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: We numerically benchmark 30 optimisers on 372 instances of the variational quantum eigensolver for solving the Fermi-Hubbard system with the Hamiltonian variational ansatz. We rank the optimisers with respect to metrics such as final energy achieved and function calls needed to get within a certain tolerance level, and find that the best performing optimisers are variants of gradient descent such as Momentum and ADAM (using finite difference), SPSA, CMAES, and BayesMGD. We also perform gradient analysis and observe that the step size for finite difference has a very significant impact. We also consider using simultaneous perturbation (inspired by SPSA) as a gradient subroutine: here finite difference can lead to a more precise estimate of the ground state but uses more calls, whereas simultaneous perturbation can converge quicker but may be less precise in the later stages. Finally, we also study the quantum natural gradient algorithm: we implement this method for 1-dimensional Fermi-Hubbard systems, and find that whilst it can reach a lower energy with fewer iterations, this improvement is typically lost when taking total function calls into account. Our method involves performing careful hyperparameter sweeping on 4 instances. We present a variety of analysis and figures, detailed optimiser notes, and discuss future directions.
- Abstract(参考訳): ハミルトン変分アンサッツを用いてフェルミ・ハッバード系を解くために,変分量子固有解器の372個のインスタンスに対して,30個のオプティマイザを数値的にベンチマークした。
最適オプティマイザはモメンタムやADAM(有限差分)、SPSA、CMAES、ベイズMGDなどの勾配勾配の変種である。
また、勾配解析を行い、有限差分におけるステップサイズが非常に大きな影響を与えることを観察する。
また、同時摂動(SPSAにインスパイアされた)を勾配のサブルーチンとして考える: ここでは、有限差分は基底状態をより正確に推定するが、より多くの呼び出しを使用するが、同時摂動はより早く収束するが、後段では正確でない。
最後に、1次元のフェルミ・ハバード系に対してこの手法を実装し、より少ないイテレーションで低いエネルギーに到達できるが、この改善は通常関数呼び出しを考慮に入れれば失われる。
提案手法では,4つのインスタンスに対して注意深いハイパーパラメータスイーピングを行う。
様々な分析と数値、詳細なオプティマイザノートを提示し、今後の方向性について論じる。
関連論文リスト
- A Stochastic Approach to Bi-Level Optimization for Hyperparameter Optimization and Meta Learning [74.80956524812714]
我々は,現代のディープラーニングにおいて広く普及している一般的なメタ学習問題に対処する。
これらの問題は、しばしばBi-Level Optimizations (BLO)として定式化される。
我々は,与えられたBLO問題を,内部損失関数が滑らかな分布となり,外損失が内部分布に対する期待損失となるようなii最適化に変換することにより,新たな視点を導入する。
論文 参考訳(メタデータ) (2024-10-14T12:10:06Z) - Parsimonious Optimisation of Parameters in Variational Quantum Circuits [1.303764728768944]
最適なパラメータを更新するために、1イテレーション毎に少なくとも2つの回路を実行する必要がある新しい量子勾配サンプリングを提案する。
提案手法は,古典的勾配降下に類似した収束率を達成し,勾配座標降下とSPSAを実証的に上回っている。
論文 参考訳(メタデータ) (2023-06-20T18:50:18Z) - Optimization using Parallel Gradient Evaluations on Multiple Parameters [51.64614793990665]
本稿では,複数のパラメータからの勾配を勾配降下の各ステップで利用することができる凸最適化の一階法を提案する。
本手法では,複数のパラメータからの勾配を用いて,これらのパラメータを最適方向に更新する。
論文 参考訳(メタデータ) (2023-02-06T23:39:13Z) - Formal guarantees for heuristic optimization algorithms used in machine
learning [6.978625807687497]
グラディエント・Descent(SGD)とその変種は、大規模最適化機械学習(ML)問題において支配的な手法となっている。
本稿では,いくつかの凸最適化手法の形式的保証と改良アルゴリズムの提案を行う。
論文 参考訳(メタデータ) (2022-07-31T19:41:22Z) - Optimized numerical gradient and Hessian estimation for variational
quantum algorithms [0.0]
チューナブルな数値推定器は回路量子ビット数に比例して指数関数的に減少する推定誤差を提供する。
パラメータシフト推定器は,任意の状況下での推定精度で標準の非スケール推定値を上回った。
論文 参考訳(メタデータ) (2022-06-25T12:58:44Z) - Mitigated barren plateaus in the time-nonlocal optimization of analog
quantum-algorithm protocols [0.0]
変分量子アルゴリズムのようなアルゴリズムクラスは、バレンプラトーに苦しむことが示されている。
本稿では,ハミルトニアン系パラメータのトレーニング可能なフーリエ係数に基づく量子アルゴリズムの最適化手法を提案する。
論文 参考訳(メタデータ) (2021-11-15T21:13:10Z) - Differentiable Annealed Importance Sampling and the Perils of Gradient
Noise [68.44523807580438]
Annealed importance sample (AIS) と関連するアルゴリズムは、限界推定のための非常に効果的なツールである。
差別性は、目的として限界確率を最適化する可能性を認めるため、望ましい性質である。
我々はメトロポリス・ハスティングスのステップを放棄して微分可能アルゴリズムを提案し、ミニバッチ計算をさらに解き放つ。
論文 参考訳(メタデータ) (2021-07-21T17:10:14Z) - Reducing the Variance of Gaussian Process Hyperparameter Optimization
with Preconditioning [54.01682318834995]
プレコンディショニングは、行列ベクトル乗算を含む反復的な方法にとって非常に効果的なステップである。
プレコンディショニングには、これまで検討されていなかった付加的なメリットがあることを実証する。
基本的に無視可能なコストで、同時に分散を低減することができる。
論文 参考訳(メタデータ) (2021-07-01T06:43:11Z) - Self-Tuning Stochastic Optimization with Curvature-Aware Gradient
Filtering [53.523517926927894]
サンプルごとのHessian-vector積と勾配を用いて、自己チューニングの二次構造を構築する。
モデルに基づく手続きが雑音勾配設定に収束することを証明する。
これは自己チューニング二次体を構築するための興味深いステップである。
論文 参考訳(メタデータ) (2020-11-09T22:07:30Z) - Expectigrad: Fast Stochastic Optimization with Robust Convergence
Properties [18.973116252065278]
そこで本稿では,数値と分母を連立して,すべての歴史的運動量項の成分ごとの非重み付き平均値に応じて調整を行う,期待段階という新しい手法を提案する。
我々は、Adam の発散を引き起こすことが知られている勾配最適化問題のすべての事例において、期待度が分岐できないことを証明した。
論文 参考訳(メタデータ) (2020-10-03T13:34:27Z) - Adaptive pruning-based optimization of parameterized quantum circuits [62.997667081978825]
Variisyハイブリッド量子古典アルゴリズムは、ノイズ中間量子デバイスの使用を最大化する強力なツールである。
我々は、変分量子アルゴリズムで使用されるそのようなアンサーゼを「効率的な回路訓練」(PECT)と呼ぶ戦略を提案する。
すべてのアンサッツパラメータを一度に最適化する代わりに、PECTは一連の変分アルゴリズムを起動する。
論文 参考訳(メタデータ) (2020-10-01T18:14:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。