論文の概要: DyPP: Dynamic Parameter Prediction to Accelerate Convergence of
Variational Quantum Algorithms
- arxiv url: http://arxiv.org/abs/2307.12449v3
- Date: Mon, 19 Feb 2024 20:05:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 21:20:44.727985
- Title: DyPP: Dynamic Parameter Prediction to Accelerate Convergence of
Variational Quantum Algorithms
- Title(参考訳): DyPP: 変分量子アルゴリズムの収束を加速する動的パラメータ予測
- Authors: Satwik Kundu, Debarshi Kundu and Swaroop Ghosh
- Abstract要約: 本稿では,VQAの収束を加速する新しいアプローチDyPP(Dynamic Prediction)を提案する。
Naive Prediction (NaP) と Adaptive Prediction (AdaP) の2つの手法を導入する。
この結果から,従来の最適化手法と比較して,VQEは最大3.1タイム,QAOAは2.91タイムに高速化できることがわかった。
- 参考スコア(独自算出の注目度): 2.348041867134616
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The exponential run time of quantum simulators on classical machines and long
queue times and high costs of real quantum devices present significant
challenges in the efficient optimization of Variational Quantum Algorithms
(VQAs) like Variational Quantum Eigensolver (VQE), Quantum Approximate
Optimization Algorithm (QAOA) and Quantum Neural Networks (QNNs). To address
these limitations, we propose a new approach, DyPP (Dynamic Parameter
Prediction), which accelerates the convergence of VQAs by exploiting regular
trends in the parameter weights to update parameters. We introduce two
techniques for optimal prediction performance namely, Naive Prediction (NaP)
and Adaptive Prediction (AdaP). Through extensive experimentation and training
of multiple QNN models on various datasets, we demonstrate that DyPP offers a
speedup of approximately $2.25\times$ compared to standard training methods,
while also providing improved accuracy (up to $2.3\%$ higher) and loss (up to
$6.1\%$ lower) with low storage and computational overheads. We also evaluate
DyPP's effectiveness in VQE for molecular ground-state energy estimation and in
QAOA for graph MaxCut. Our results show that on average, DyPP leads to speedup
of up to $3.1\times$ for VQE and $2.91\times$ for QAOA, compared to traditional
optimization techniques, while using up to $3.3\times$ lesser shots (i.e.,
repeated circuit executions). Even under hardware noise, DyPP outperforms
existing optimization techniques, delivering upto $3.33\times$ speedup and
$2.5\times$ fewer shots, thereby enhancing efficiency of VQAs.
- Abstract(参考訳): 古典機械上での量子シミュレータの指数的実行時間と長い待ち時間と実量子デバイスの高コストは、変分量子固有解法(VQE)、量子近似最適化アルゴリズム(QAOA)、量子ニューラルネットワーク(QNN)などの変分量子アルゴリズム(VQA)の効率的な最適化において重要な課題を提示する。
このような制約に対処するため,パラメータ重みの規則的傾向を利用してパラメータを更新することにより,VQAの収束を加速するDyPP(Dynamic Parameter Prediction)を提案する。
本稿では,最適予測性能のための2つの手法,naive prediction(nap)とadaptive prediction(adap)を提案する。
さまざまなデータセット上の複数のQNNモデルの広範な実験とトレーニングを通じて、DyPPは標準的なトレーニング手法と比較して約2.25\times$のスピードアップを提供し、ストレージと計算オーバーヘッドの少ない精度(最大2.3\%$以上)と損失(最大6.1\%$以下)を提供する。
また,分子基底エネルギー推定におけるVQEおよびグラフMaxCutにおけるQAOAにおけるDyPPの有効性を評価した。
その結果、dyppはvqeで平均3.1\times$、qaoaで2.91\times$、従来の最適化技術と比較して最大3.3\times$より少ないショット(つまり繰り返しのサーキット実行)を使用する。
ハードウェアノイズの下でも、DyPPは既存の最適化技術より優れており、最大3.33倍のスピードアップと2.5倍のスピードアップを実現し、VQAの効率を向上させる。
関連論文リスト
- AdaLog: Post-Training Quantization for Vision Transformers with Adaptive Logarithm Quantizer [54.713778961605115]
Vision Transformer (ViT) はコンピュータビジョンコミュニティにおいて最も普及しているバックボーンネットワークの1つである。
本稿では,AdaLog(Adaptive Logarithm AdaLog)量子化器を提案する。
論文 参考訳(メタデータ) (2024-07-17T18:38:48Z) - Pre-optimizing variational quantum eigensolvers with tensor networks [1.4512477254432858]
VQEをシミュレートすることで、パラメータ化量子回路のよい開始パラメータを求める手法を提示し、ベンチマークする。
最大32キュービットのシステムサイズを持つ1Dと2DのFermi-Hubbardモデルに適用する。
2Dでは、VTNEが検出するパラメータは開始構成よりもはるかに低いエネルギーであり、これらのパラメータから開始するVQEは、与えられたエネルギーに降り着くためには、自明に少ない演算を必要とすることを示す。
論文 参考訳(メタデータ) (2023-10-19T17:57:58Z) - On-Chip Hardware-Aware Quantization for Mixed Precision Neural Networks [52.97107229149988]
エッジデバイス上でハードウェア対応の混合精度量子化を行うOn-Chipハードウェア・アウェア量子化フレームワークを提案する。
このパイプラインは、量子化プロセスが量子化演算子の実際のハードウェア効率を知覚することを可能にする。
精度測定のために,マルチチップシナリオにおける演算子の精度への影響を効果的に推定するMask-Guided Quantization Estimation技術を提案する。
論文 参考訳(メタデータ) (2023-09-05T04:39:34Z) - Improving Convergence for Quantum Variational Classifiers using Weight
Re-Mapping [60.086820254217336]
近年、量子機械学習は変分量子回路(VQC)の利用が大幅に増加した。
重みを2pi$の間隔に不明瞭にマッピングするために、VQCの重み再マッピングを導入する。
修正されていないウェイトを用いて、Wineデータセットの重量再マッピングにより、テスト精度が10%向上したことを実証した。
論文 参考訳(メタデータ) (2022-12-22T13:23:19Z) - The QAOA with Few Measurements [4.713817702376467]
近似量子最適化アルゴリズム (QAOA) はもともと最適化問題の解法として開発された。
完全な記述型ベンチマーク技術は、多くの量子ビットに対してしばしば高価である。
中性原子量子コンピュータのような実験的な量子コンピューティングプラットフォームは、繰り返し速度が遅い。
論文 参考訳(メタデータ) (2022-05-13T18:42:20Z) - Variational Quantum Optimization with Multi-Basis Encodings [62.72309460291971]
マルチバスグラフ複雑性と非線形活性化関数の2つの革新の恩恵を受ける新しい変分量子アルゴリズムを導入する。
その結果,最適化性能が向上し,有効景観が2つ向上し,測定の進歩が減少した。
論文 参考訳(メタデータ) (2021-06-24T20:16:02Z) - Adaptive pruning-based optimization of parameterized quantum circuits [62.997667081978825]
Variisyハイブリッド量子古典アルゴリズムは、ノイズ中間量子デバイスの使用を最大化する強力なツールである。
我々は、変分量子アルゴリズムで使用されるそのようなアンサーゼを「効率的な回路訓練」(PECT)と呼ぶ戦略を提案する。
すべてのアンサッツパラメータを一度に最適化する代わりに、PECTは一連の変分アルゴリズムを起動する。
論文 参考訳(メタデータ) (2020-10-01T18:14:11Z) - APQ: Joint Search for Network Architecture, Pruning and Quantization
Policy [49.3037538647714]
本稿では,リソース制約のあるハードウェア上での効率的なディープラーニング推論のためのAPQを提案する。
ニューラルアーキテクチャ、プルーニングポリシー、量子化ポリシーを別々に検索する従来の方法とは異なり、我々はそれらを共同で最適化する。
同じ精度で、APQはMobileNetV2+HAQよりもレイテンシ/エネルギーを2倍/1.3倍削減する。
論文 参考訳(メタデータ) (2020-06-15T16:09:17Z) - Classical Optimizers for Noisy Intermediate-Scale Quantum Devices [1.43494686131174]
本稿では,NISQ(Noisy Intermediate-Scale Quantum)デバイス上でのチューニングについて述べる。
VQEのケーススタディにおいて、異なる最小値の効率と有効性について分析した。
これまでのほとんどの結果は量子VQE回路のチューニングに集中しているが、量子ノイズの存在下では、古典的な最小化ステップを慎重に選択して正しい結果を得る必要がある。
論文 参考訳(メタデータ) (2020-04-06T21:31:22Z) - Accelerating Quantum Approximate Optimization Algorithm using Machine
Learning [6.735657356113614]
本稿では,量子近似最適化アルゴリズム(QAOA)の実装を高速化する機械学習手法を提案する。
QAOAは、いわゆる量子超越性を証明する量子古典ハイブリッドアルゴリズムである。
提案手法は,264種類のグラフを用いて行った解析から,最適化の繰り返し回数を最大65.7%削減できることを示す。
論文 参考訳(メタデータ) (2020-02-04T02:21:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。