論文の概要: Stochastic Gradient Line Bayesian Optimization: Reducing Measurement
Shots in Optimizing Parameterized Quantum Circuits
- arxiv url: http://arxiv.org/abs/2111.07952v1
- Date: Mon, 15 Nov 2021 18:00:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-16 14:56:36.619874
- Title: Stochastic Gradient Line Bayesian Optimization: Reducing Measurement
Shots in Optimizing Parameterized Quantum Circuits
- Title(参考訳): 確率勾配線ベイズ最適化:パラメータ化量子回路における計測ショットの削減
- Authors: Shiro Tamiya, Hayata Yamasaki
- Abstract要約: 我々は、少ない測定ショットで回路最適化を行うための効率的なフレームワークを開発する。
我々は、正確な期待値推定に頼ることなく、最適化を実現するための適応的な計測ショット戦略を定式化する。
本稿では,VQAsの最適化において,接尾辞平均化手法が統計的およびハードウェアノイズの影響を著しく低減できることを示す。
- 参考スコア(独自算出の注目度): 4.94950858749529
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Optimization of parameterized quantum circuits is indispensable for
applications of near-term quantum devices to computational tasks with
variational quantum algorithms (VQAs). However, the existing optimization
algorithms for VQAs require an excessive number of quantum-measurement shots in
estimating expectation values of observables or iterating updates of circuit
parameters, whose cost has been a crucial obstacle for practical use. To
address this problem, we develop an efficient framework, \textit{stochastic
gradient line Bayesian optimization} (SGLBO), for the circuit optimization with
fewer measurement shots. The SGLBO reduces the cost of measurement shots by
estimating an appropriate direction of updating the parameters based on
stochastic gradient descent (SGD) and further by utilizing Bayesian
optimization (BO) to estimate the optimal step size in each iteration of the
SGD. We formulate an adaptive measurement-shot strategy to achieve the
optimization feasibly without relying on precise expectation-value estimation
and many iterations; moreover, we show that a technique of suffix averaging can
significantly reduce the effect of statistical and hardware noise in the
optimization for the VQAs. Our numerical simulation demonstrates that the SGLBO
augmented with these techniques can drastically reduce the required number of
measurement shots, improve the accuracy in the optimization, and enhance the
robustness against the noise compared to other state-of-art optimizers in
representative tasks for the VQAs. These results establish a framework of
quantum-circuit optimizers integrating two different optimization approaches,
SGD and BO, to reduce the cost of measurement shots significantly.
- Abstract(参考訳): パラメータ化量子回路の最適化は、変動量子アルゴリズム(VQA)を用いた計算タスクへの短期量子デバイスの適用には不可欠である。
しかしながら、既存のVQAsの最適化アルゴリズムでは、観測可能な変数の期待値を推定したり、回路パラメータの更新を繰り返すために、過剰な数の量子測定ショットを必要とする。
この問題に対処するため,計測ショットが少ない回路最適化のための効率的なフレームワークである「textit{stochastic gradient line Bayesian optimization} (SGLBO)」を開発した。
SGLBOは、確率勾配降下(SGD)に基づいてパラメータを適切に更新する方向を推定し、さらにベイズ最適化(BO)を利用して、SGDの各イテレーションにおける最適なステップサイズを推定することにより、測定ショットのコストを低減する。
精度の高い期待値推定と多くのイテレーションを頼らずに最適化を実現するための適応的計測ショット戦略を定式化し,vqaの最適化において,接尾辞平均化手法が統計的・ハードウェア的ノイズの影響を著しく低減できることを示した。
数値シミュレーションにより,これらの手法を付加したsglboは,vqaの代表課題における他の最先端オプティマイザと比較して,必要な計測ショット数を大幅に削減し,最適化精度を高め,雑音に対するロバスト性を高めることができることを示した。
これらの結果は、2つの異なる最適化手法であるSGDとBOを統合する量子回路オプティマイザの枠組みを確立し、測定ショットのコストを大幅に削減する。
関連論文リスト
- End-to-End Learning for Fair Multiobjective Optimization Under
Uncertainty [55.04219793298687]
機械学習における予測-Then-Forecast(PtO)パラダイムは、下流の意思決定品質を最大化することを目的としている。
本稿では,PtO法を拡張して,OWA(Nondifferentiable Ordered Weighted Averaging)の目的を最適化する。
この結果から,不確実性の下でのOWA関数の最適化とパラメトリック予測を効果的に統合できることが示唆された。
論文 参考訳(メタデータ) (2024-02-12T16:33:35Z) - Reducing measurement costs by recycling the Hessian in adaptive
variational quantum algorithms [0.0]
本稿では,適応VQAに適した準ニュートン最適化プロトコルを提案する。
我々は,適応VQAの繰り返しを通じて,逆ヘッセン行列に対する近似を連続的に構築し,成長させる準ニュートンアルゴリズムを実装した。
論文 参考訳(メタデータ) (2024-01-10T14:08:04Z) - Efficient and Robust Parameter Optimization of the Unitary Coupled-Cluster Ansatz [4.607081302947026]
本稿では、量子コンピュータ上でのユニタリ結合クラスタ・アンサッツのパラメータ最適化のために、近似パラボラ(SOAP)を用いた逐次最適化を提案する。
分子システムに関する数値的なベンチマークでは、SOAPはより高速な収束とノイズに対する堅牢性を達成することが示されている。
SOAPは、2量子ビットモデルシステムを用いた超伝導量子コンピュータの実験によりさらに検証される。
論文 参考訳(メタデータ) (2024-01-10T03:30:39Z) - Iterative Layerwise Training for Quantum Approximate Optimization
Algorithm [0.39945675027960637]
最適化問題の解法における量子近似最適化アルゴリズム(QAOA)の能力は近年,盛んに研究されている。
本稿では,QAOAによる問題解決における最適化コスト削減の可能性を検討する。
論文 参考訳(メタデータ) (2023-09-24T05:12:48Z) - On-Chip Hardware-Aware Quantization for Mixed Precision Neural Networks [52.97107229149988]
エッジデバイス上でハードウェア対応の混合精度量子化を行うOn-Chipハードウェア・アウェア量子化フレームワークを提案する。
このパイプラインは、量子化プロセスが量子化演算子の実際のハードウェア効率を知覚することを可能にする。
精度測定のために,マルチチップシナリオにおける演算子の精度への影響を効果的に推定するMask-Guided Quantization Estimation技術を提案する。
論文 参考訳(メタデータ) (2023-09-05T04:39:34Z) - Optimization of Annealed Importance Sampling Hyperparameters [77.34726150561087]
Annealed Importance Smpling (AIS) は、深層生成モデルの難易度を推定するために使われる一般的なアルゴリズムである。
本稿では、フレキシブルな中間分布を持つパラメータAISプロセスを提案し、サンプリングに少ないステップを使用するようにブリッジング分布を最適化する。
我々は, 最適化AISの性能評価を行い, 深部生成モデルの限界推定を行い, 他の推定値と比較した。
論文 参考訳(メタデータ) (2022-09-27T07:58:25Z) - Performance comparison of optimization methods on variational quantum
algorithms [2.690135599539986]
変分量子アルゴリズム(VQA)は、学術・工業研究への応用に短期的な量子ハードウェアを使用するための有望な道を提供する。
SLSQP, COBYLA, CMA-ES, SPSAの4つの最適化手法の性能について検討した。
論文 参考訳(メタデータ) (2021-11-26T12:13:20Z) - Adaptive pruning-based optimization of parameterized quantum circuits [62.997667081978825]
Variisyハイブリッド量子古典アルゴリズムは、ノイズ中間量子デバイスの使用を最大化する強力なツールである。
我々は、変分量子アルゴリズムで使用されるそのようなアンサーゼを「効率的な回路訓練」(PECT)と呼ぶ戦略を提案する。
すべてのアンサッツパラメータを一度に最適化する代わりに、PECTは一連の変分アルゴリズムを起動する。
論文 参考訳(メタデータ) (2020-10-01T18:14:11Z) - Automatically Learning Compact Quality-aware Surrogates for Optimization
Problems [55.94450542785096]
未知パラメータで最適化問題を解くには、未知パラメータの値を予測し、これらの値を用いて問題を解くための予測モデルを学ぶ必要がある。
最近の研究によると、複雑なトレーニングモデルパイプラインのレイヤーとして最適化の問題を含めると、観測されていない意思決定の繰り返しを予測することになる。
我々は,大規模最適化問題の低次元サロゲートモデルを学習することにより,解の質を向上させることができることを示す。
論文 参考訳(メタデータ) (2020-06-18T19:11:54Z) - Adaptivity of Stochastic Gradient Methods for Nonconvex Optimization [71.03797261151605]
適応性は現代最適化理論において重要であるが、研究されていない性質である。
提案アルゴリズムは,PL目標に対して既存のアルゴリズムよりも優れた性能を保ちながら,PL目標に対して最適な収束性を実現することを実証した。
論文 参考訳(メタデータ) (2020-02-13T05:42:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。