論文の概要: Multilevel leapfrogging initialization for quantum approximate
optimization algorithm
- arxiv url: http://arxiv.org/abs/2306.06986v3
- Date: Sun, 30 Jul 2023 06:16:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-01 20:44:25.177570
- Title: Multilevel leapfrogging initialization for quantum approximate
optimization algorithm
- Title(参考訳): 量子近似最適化アルゴリズムのための多重レベル跳躍初期化
- Authors: Xiao-Hui Ni, Bin-Bin Cai, Hai-Ling Liu, Su-Juan Qin, Fei Gao and
Qiao-Yan Wen
- Abstract要約: 量子強化学習に拡張可能なマルチレベル跳躍学習(M-Leap)を提案する。
また,最適化を初期化するためのマルチレベル跳躍補間戦略(MLI)を提案する。
準オプティマを少数のコストで見つける効率で、我々の方法は他の量子アルゴリズムに光を放つかもしれない。
- 参考スコア(独自算出の注目度): 4.501305807267216
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The quantum approximate optimization algorithm (QAOA) is a prospective hybrid
quantum-classical algorithm widely used to solve combinatorial optimization
problems. However, the external parameter optimization required in QAOA tends
to consume extensive resources to find the optimal parameters of the
parameterized quantum circuit, which may be the bottleneck of QAOA. To meet
this challenge, we first propose multilevel leapfrogging learning (M-Leap) that
can be extended to quantum reinforcement learning, quantum circuit design, and
other domains. M-Leap incrementally increases the circuit depth during
optimization and predicts the initial parameters at level $p+r$ ($r>1$) based
on the optimized parameters at level $p$, cutting down the optimization rounds.
Then, we propose a multilevel leapfrogging-interpolation strategy (MLI) for
initializing optimizations by combining M-Leap with the interpolation
technique. We benchmark its performance on the Maxcut problem. Compared with
the Interpolation-based strategy (INTERP), MLI cuts down at least half the
number of rounds of optimization for the classical outer learning loop.
Remarkably, the simulation results demonstrate that the running time of MLI is
1/3 of INTERP when MLI gets quasi-optimal solutions. In addition, we present
the greedy-MLI strategy by introducing multi-start, which is an extension of
MLI. The simulation results show that greedy-MLI can get a higher average
performance than the remaining two methods. With their efficiency to find the
quasi-optima in a fraction of costs, our methods may shed light in other
quantum algorithms.
- Abstract(参考訳): 量子近似最適化アルゴリズム (QAOA) は、組合せ最適化問題の解法として広く用いられているハイブリッド量子古典アルゴリズムである。
しかし、QAOAで必要とされる外部パラメータ最適化は、QAOAのボトルネックとなるパラメータ化量子回路の最適パラメータを見つけるために、広範囲なリソースを消費する傾向にある。
この課題を克服するために,我々はまず,量子強化学習,量子回路設計,その他の領域に拡張可能なマルチレベル跳躍学習(m-leap)を提案する。
m-leapは最適化中に回路の深さを段階的に増加させ、レベル$p$の最適化パラメータに基づいてレベル$p+r$(r>1$)の初期パラメータを予測する。
そこで本稿では,M-Leapと補間手法を組み合わせることで最適化を初期化するためのマルチレベル跳躍補間戦略(MLI)を提案する。
我々は、maxcut問題でパフォーマンスをベンチマークする。
Interpolation-based Strategy (INTERP)と比較して、MLIは古典的な外的学習ループの最適化ラウンドの少なくとも半分を削減している。
シミュレーションの結果、MLIが準最適解を得る場合、MLIの実行時間はInterPの1/3であることが示された。
さらに,MLIの拡張であるマルチスタートを導入することで,greedy-MLI戦略を提案する。
シミュレーションの結果,greedy-MLIは残りの2つの手法よりも平均性能が高いことがわかった。
準オプティマを少数のコストで見つける効率で、我々の方法は他の量子アルゴリズムに光を放つかもしれない。
関連論文リスト
- Localized Zeroth-Order Prompt Optimization [54.964765668688806]
そこで我々は,ZOPO(Localized zeroth-order prompt optimization)という新しいアルゴリズムを提案する。
ZOPOはニューラル・タンジェント・カーネルをベースとしたガウス法を標準ゼロ階次最適化に取り入れ、高速な局所最適探索を高速化する。
注目すべきは、ZOPOは最適化性能とクエリ効率の両方の観点から、既存のベースラインを上回っていることだ。
論文 参考訳(メタデータ) (2024-03-05T14:18:15Z) - qPOTS: Efficient batch multiobjective Bayesian optimization via Pareto
optimal Thompson sampling [0.0]
多目的最適化を解くためのサンプル効率のアプローチはプロセス・オラクル・サロゲート (GP) を経由する。
本稿では,ランダムGPサンプルのフロンティアから新しい候補を選択する,単純かつ効果的なトンプソンサンプリングに基づくアプローチを提案する。
提案手法は, 実世界の実験だけでなく, 精度, 計算効率の両面において, 高い実験性能を示すものである。
論文 参考訳(メタデータ) (2023-10-24T12:35:15Z) - Large Language Models as Optimizers [106.52386531624532]
本稿では,大規模言語モデル (LLM) をプロンプトとして活用するためのシンプルで効果的な手法である Prompting (OPRO) を提案する。
各最適化ステップにおいて、LLMは、前述した値を含むプロンプトから新しい解を生成する。
OPROにより最適化された最良のプロンプトは、GSM8Kで最大8%、Big-Bench Hardタスクで最大50%向上することを示した。
論文 参考訳(メタデータ) (2023-09-07T00:07:15Z) - Maximize to Explore: One Objective Function Fusing Estimation, Planning,
and Exploration [87.53543137162488]
我々はtextttMEX というオンライン強化学習(オンラインRL)フレームワークを提案する。
textttMEXは、自動的に探索エクスプロイトのバランスをとりながら、見積もりと計画コンポーネントを統合する。
様々な MuJoCo 環境では,ベースラインを安定的なマージンで上回り,十分な報酬を得られる。
論文 参考訳(メタデータ) (2023-05-29T17:25:26Z) - Quantum Alternating Operator Ansatz for Solving the Minimum Exact Cover
Problem [4.697039614904225]
量子交互演算子 ansatz (QAOA+) を用いて最小被覆(MEC)問題を解く。
数値計算の結果,アルゴリズムのレベル$p$が低い場合,高い確率で解が得られることがわかった。
また、1量子ビット回転ゲートを$R_Z$で除去することで量子回路を最適化する。
論文 参考訳(メタデータ) (2022-11-28T12:45:52Z) - Min-Max Bilevel Multi-objective Optimization with Applications in
Machine Learning [30.25074797092709]
本稿では,min-maxバイレベル多目的最適化フレームワークを提案する。
表現学習と超目的学習の応用を強調している。
論文 参考訳(メタデータ) (2022-03-03T18:56:13Z) - Unsupervised strategies for identifying optimal parameters in Quantum
Approximate Optimization Algorithm [3.508346077709686]
最適化なしでパラメータを設定するための教師なし機械学習手法について検討する。
繰り返しに使用するQAOAパラメータの数が3ドルに制限された場合、これらをRecursive-QAOAで3ドルまで紹介します。
我々は、アングルを広範囲に最適化し、多数のサーキットコールを省く場合と同じような性能を得る。
論文 参考訳(メタデータ) (2022-02-18T19:55:42Z) - An Efficient Batch Constrained Bayesian Optimization Approach for Analog
Circuit Synthesis via Multi-objective Acquisition Ensemble [11.64233949999656]
MACE(Multi-objective Acquisition Function Ensemble)を用いた並列化可能なベイズ最適化アルゴリズムを提案する。
提案アルゴリズムは,バッチサイズが15のときの非制約最適化問題に対する微分進化(DE)と比較して,シミュレーション全体の時間を最大74倍削減することができる。
制約付き最適化問題に対して,提案アルゴリズムは,バッチサイズが15の場合に,重み付き改善に基づくベイズ最適化(WEIBO)アプローチと比較して最大15倍の高速化を実現することができる。
論文 参考訳(メタデータ) (2021-06-28T13:21:28Z) - Provably Faster Algorithms for Bilevel Optimization [54.83583213812667]
バイレベル最適化は多くの重要な機械学習アプリケーションに広く適用されている。
両レベル最適化のための2つの新しいアルゴリズムを提案する。
両アルゴリズムが$mathcalO(epsilon-1.5)$の複雑さを達成し,既存のアルゴリズムを桁違いに上回っていることを示す。
論文 参考訳(メタデータ) (2021-06-08T21:05:30Z) - Adaptive pruning-based optimization of parameterized quantum circuits [62.997667081978825]
Variisyハイブリッド量子古典アルゴリズムは、ノイズ中間量子デバイスの使用を最大化する強力なツールである。
我々は、変分量子アルゴリズムで使用されるそのようなアンサーゼを「効率的な回路訓練」(PECT)と呼ぶ戦略を提案する。
すべてのアンサッツパラメータを一度に最適化する代わりに、PECTは一連の変分アルゴリズムを起動する。
論文 参考訳(メタデータ) (2020-10-01T18:14:11Z) - Provably Efficient Exploration in Policy Optimization [117.09887790160406]
本稿では,最適化アルゴリズム(OPPO)の最適変種を提案する。
OPPO は $tildeO(sqrtd2 H3 T )$ regret を達成する。
我々の知る限りでは、OPPOは、探索する最初の証明可能な効率的なポリシー最適化アルゴリズムである。
論文 参考訳(メタデータ) (2019-12-12T08:40:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。