論文の概要: Multilevel leapfrogging initialization for quantum approximate
optimization algorithm
- arxiv url: http://arxiv.org/abs/2306.06986v3
- Date: Sun, 30 Jul 2023 06:16:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-01 20:44:25.177570
- Title: Multilevel leapfrogging initialization for quantum approximate
optimization algorithm
- Title(参考訳): 量子近似最適化アルゴリズムのための多重レベル跳躍初期化
- Authors: Xiao-Hui Ni, Bin-Bin Cai, Hai-Ling Liu, Su-Juan Qin, Fei Gao and
Qiao-Yan Wen
- Abstract要約: 量子強化学習に拡張可能なマルチレベル跳躍学習(M-Leap)を提案する。
また,最適化を初期化するためのマルチレベル跳躍補間戦略(MLI)を提案する。
準オプティマを少数のコストで見つける効率で、我々の方法は他の量子アルゴリズムに光を放つかもしれない。
- 参考スコア(独自算出の注目度): 4.501305807267216
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The quantum approximate optimization algorithm (QAOA) is a prospective hybrid
quantum-classical algorithm widely used to solve combinatorial optimization
problems. However, the external parameter optimization required in QAOA tends
to consume extensive resources to find the optimal parameters of the
parameterized quantum circuit, which may be the bottleneck of QAOA. To meet
this challenge, we first propose multilevel leapfrogging learning (M-Leap) that
can be extended to quantum reinforcement learning, quantum circuit design, and
other domains. M-Leap incrementally increases the circuit depth during
optimization and predicts the initial parameters at level $p+r$ ($r>1$) based
on the optimized parameters at level $p$, cutting down the optimization rounds.
Then, we propose a multilevel leapfrogging-interpolation strategy (MLI) for
initializing optimizations by combining M-Leap with the interpolation
technique. We benchmark its performance on the Maxcut problem. Compared with
the Interpolation-based strategy (INTERP), MLI cuts down at least half the
number of rounds of optimization for the classical outer learning loop.
Remarkably, the simulation results demonstrate that the running time of MLI is
1/3 of INTERP when MLI gets quasi-optimal solutions. In addition, we present
the greedy-MLI strategy by introducing multi-start, which is an extension of
MLI. The simulation results show that greedy-MLI can get a higher average
performance than the remaining two methods. With their efficiency to find the
quasi-optima in a fraction of costs, our methods may shed light in other
quantum algorithms.
- Abstract(参考訳): 量子近似最適化アルゴリズム (QAOA) は、組合せ最適化問題の解法として広く用いられているハイブリッド量子古典アルゴリズムである。
しかし、QAOAで必要とされる外部パラメータ最適化は、QAOAのボトルネックとなるパラメータ化量子回路の最適パラメータを見つけるために、広範囲なリソースを消費する傾向にある。
この課題を克服するために,我々はまず,量子強化学習,量子回路設計,その他の領域に拡張可能なマルチレベル跳躍学習(m-leap)を提案する。
m-leapは最適化中に回路の深さを段階的に増加させ、レベル$p$の最適化パラメータに基づいてレベル$p+r$(r>1$)の初期パラメータを予測する。
そこで本稿では,M-Leapと補間手法を組み合わせることで最適化を初期化するためのマルチレベル跳躍補間戦略(MLI)を提案する。
我々は、maxcut問題でパフォーマンスをベンチマークする。
Interpolation-based Strategy (INTERP)と比較して、MLIは古典的な外的学習ループの最適化ラウンドの少なくとも半分を削減している。
シミュレーションの結果、MLIが準最適解を得る場合、MLIの実行時間はInterPの1/3であることが示された。
さらに,MLIの拡張であるマルチスタートを導入することで,greedy-MLI戦略を提案する。
シミュレーションの結果,greedy-MLIは残りの2つの手法よりも平均性能が高いことがわかった。
準オプティマを少数のコストで見つける効率で、我々の方法は他の量子アルゴリズムに光を放つかもしれない。
関連論文リスト
- Provably Faster Algorithms for Bilevel Optimization via Without-Replacement Sampling [96.47086913559289]
勾配に基づくアルゴリズムはバイレベル最適化に広く用いられている。
本研究では,より高速な収束率を実現する非置換サンプリングに基づくアルゴリズムを提案する。
合成および実世界の両方のアプリケーションに対してアルゴリズムを検証する。
論文 参考訳(メタデータ) (2024-11-07T17:05:31Z) - A Multilevel Approach For Solving Large-Scale QUBO Problems With Noisy Hybrid Quantum Approximate Optimization [3.3493770627144004]
既存の量子処理ユニット(QPU)がマルチレベル戦略においてサブソルバとしてどのように機能するかを実験的に検証する。
完全連結な 82$-qubit Sherrington-Kirkpatrick グラフに対して 10$ の近似解を求める。
量子最適化の結果は古典学と比較して解の質に関して競争力がある。
論文 参考訳(メタデータ) (2024-08-14T20:06:32Z) - Memory-Efficient Gradient Unrolling for Large-Scale Bi-level Optimization [71.35604981129838]
従来の勾配に基づく二段階最適化アルゴリズムは、大規模アプリケーションの要求を満たすには不適である。
両レベル最適化のためのメタ勾配の偏りのない近似を実現するための$(textFG)2textU$を導入する。
$(textFG)2textU$は本質的に並列コンピューティングをサポートするように設計されており、大規模分散コンピューティングシステムを効果的に活用することができる。
論文 参考訳(メタデータ) (2024-06-20T08:21:52Z) - Iterative or Innovative? A Problem-Oriented Perspective for Code Optimization [81.88668100203913]
大規模言語モデル(LLM)は、幅広いプログラミングタスクを解く上で強力な能力を示している。
本稿では,パフォーマンス向上に着目したコード最適化について検討する。
論文 参考訳(メタデータ) (2024-06-17T16:10:10Z) - Two Optimizers Are Better Than One: LLM Catalyst Empowers Gradient-Based Optimization for Prompt Tuning [69.95292905263393]
我々は,勾配に基づく最適化と大規模言語モデル(MsLL)が相互補完的であることを示し,協調的な最適化手法を提案する。
私たちのコードはhttps://www.guozix.com/guozix/LLM-catalystでリリースされています。
論文 参考訳(メタデータ) (2024-05-30T06:24:14Z) - Localized Zeroth-Order Prompt Optimization [54.964765668688806]
そこで我々は,ZOPO(Localized zeroth-order prompt optimization)という新しいアルゴリズムを提案する。
ZOPOはニューラル・タンジェント・カーネルをベースとしたガウス法を標準ゼロ階次最適化に取り入れ、高速な局所最適探索を高速化する。
注目すべきは、ZOPOは最適化性能とクエリ効率の両方の観点から、既存のベースラインを上回っていることだ。
論文 参考訳(メタデータ) (2024-03-05T14:18:15Z) - Large Language Models as Optimizers [106.52386531624532]
本稿では,大規模言語モデル (LLM) をプロンプトとして活用するためのシンプルで効果的な手法である Prompting (OPRO) を提案する。
各最適化ステップにおいて、LLMは、前述した値を含むプロンプトから新しい解を生成する。
OPROにより最適化された最良のプロンプトは、GSM8Kで最大8%、Big-Bench Hardタスクで最大50%向上することを示した。
論文 参考訳(メタデータ) (2023-09-07T00:07:15Z) - Quantum Alternating Operator Ansatz for Solving the Minimum Exact Cover
Problem [4.697039614904225]
量子交互演算子 ansatz (QAOA+) を用いて最小被覆(MEC)問題を解く。
数値計算の結果,アルゴリズムのレベル$p$が低い場合,高い確率で解が得られることがわかった。
また、1量子ビット回転ゲートを$R_Z$で除去することで量子回路を最適化する。
論文 参考訳(メタデータ) (2022-11-28T12:45:52Z) - Min-Max Bilevel Multi-objective Optimization with Applications in
Machine Learning [30.25074797092709]
本稿では,min-maxバイレベル多目的最適化フレームワークを提案する。
表現学習と超目的学習の応用を強調している。
論文 参考訳(メタデータ) (2022-03-03T18:56:13Z) - An Efficient Batch Constrained Bayesian Optimization Approach for Analog
Circuit Synthesis via Multi-objective Acquisition Ensemble [11.64233949999656]
MACE(Multi-objective Acquisition Function Ensemble)を用いた並列化可能なベイズ最適化アルゴリズムを提案する。
提案アルゴリズムは,バッチサイズが15のときの非制約最適化問題に対する微分進化(DE)と比較して,シミュレーション全体の時間を最大74倍削減することができる。
制約付き最適化問題に対して,提案アルゴリズムは,バッチサイズが15の場合に,重み付き改善に基づくベイズ最適化(WEIBO)アプローチと比較して最大15倍の高速化を実現することができる。
論文 参考訳(メタデータ) (2021-06-28T13:21:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。