論文の概要: Multilevel leapfrogging initialization for quantum approximate
optimization algorithm
- arxiv url: http://arxiv.org/abs/2306.06986v4
- Date: Tue, 12 Mar 2024 05:20:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 02:02:58.740923
- Title: Multilevel leapfrogging initialization for quantum approximate
optimization algorithm
- Title(参考訳): 量子近似最適化アルゴリズムのための多重レベル跳躍初期化
- Authors: Xiao-Hui Ni, Bin-Bin Cai, Hai-Ling Liu, Su-Juan Qin, Fei Gao and
Qiao-Yan Wen
- Abstract要約: 深層量子アルゴリズムのランニングコストを削減するため,MLI(Multilevel Leapfrogging Interpolation)戦略が提案されている。
その結果,MLI は InterP と同じ準オプティマを達成でき,InterP が必要とするランニングコストの 1/2 しか消費できないことがわかった。
greedy-MLIは、同じ準オプティマを得る以上の安定性(すなわち平均近似比)を持つ。
- 参考スコア(独自算出の注目度): 3.126276325914251
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, Zhou et al. have proposed a novel Interpolation-based (INTERP)
strategy to generate the initial parameters for the Parameterized Quantum
Circuit (PQC) in Quantum Approximate Optimization Algorithm (QAOA). INTERP
produces the guess of the initial parameters at level $i+1$ by applying linear
interpolation to the optimized parameters at level $i$, achieving better
performance than random initialization (RI). Nevertheless, INTERP consumes
extensive running costs for deep QAOA because it necessitates optimization at
each level of the PQC. To address this problem, a Multilevel Leapfrogging
Interpolation (MLI) strategy is proposed. MLI can produce the guess of the
initial parameters from level $i+1$ to $i+l$ ($l>1$) at level $i$, omitting the
optimization rounds from level $i+1$ to $(i+l-1)$. The final result is that MLI
executes optimization at few levels rather than each level, and this operation
is referred to as Multilevel Leapfrogging optimization (M-Leap). The
performance of MLI is investigated on the Maxcut problem. Compared with INTERP,
MLI reduces most optimization rounds. Remarkably, the simulation results
demonstrate that MLI can achieve the same quasi-optima as INTERP while
consuming only 1/2 of the running costs required by INTERP. In addition, for
MLI, where there is no RI except for level $1$, the greedy-MLI strategy is
presented. The simulation results suggest that greedy-MLI has better stability
(i.e., a higher average approximation ratio) than INTERP and MLI beyond
obtaining the same quasi-optima as INTERP. According to the efficiency of
finding the quasi-optima, the idea of M-Leap might be extended to other
training tasks, especially those requiring numerous optimizations, such as
training adaptive quantum circuits.
- Abstract(参考訳): 近年、Zhouらは、量子近似最適化アルゴリズム(QAOA)において、パラメータ化量子回路(PQC)の初期パラメータを生成する新しい補間(INTERP)戦略を提案している。
InterPは、最適化されたパラメータに線形補間を適用することで、レベル$i+1$で初期パラメータを推定し、ランダム初期化(RI)よりも優れたパフォーマンスを達成する。
にもかかわらず InterP は PQC の各レベルで最適化を必要とするため、深い QAOA のランニングコストを消費する。
この問題に対処するため,Multilevel Leapfrogging Interpolation (MLI) 戦略を提案する。
MLIは、レベル$i+1$から$i+l$$$$l>1$)までの初期パラメータの推測を、レベル$i+1$から$(i+l-1)$までの最適化ラウンドを省略することができる。
最終結果は、MLIが各レベルよりも少ないレベルで最適化を実行することであり、この操作はMultilevel Leapfrogging Optimization (M-Leap)と呼ばれる。
mliの性能は,maxcut問題について検討した。
InterPと比較すると、MLIはほとんどの最適化ラウンドを減らす。
興味深いことに、シミュレーションの結果は、MLIがInterPと同じ準オプティマを達成できる一方で、InterPが必要とするランニングコストの1/2しか消費できないことを示した。
さらに、レベル1ドル以外のRIがないMLIに対しては、greedy-MLI戦略が提示される。
シミュレーションの結果, greedy-mli は interp よりも安定性(平均近似比が高い)が向上し, interp と同じ準オプティマが得られる可能性が示唆された。
準オプティマを見つける効率により、m-leapのアイデアは他のトレーニングタスク、特に適応量子回路のトレーニングのような多くの最適化を必要とするタスクにも拡張できる。
関連論文リスト
- Localized Zeroth-Order Prompt Optimization [54.964765668688806]
そこで我々は,ZOPO(Localized zeroth-order prompt optimization)という新しいアルゴリズムを提案する。
ZOPOはニューラル・タンジェント・カーネルをベースとしたガウス法を標準ゼロ階次最適化に取り入れ、高速な局所最適探索を高速化する。
注目すべきは、ZOPOは最適化性能とクエリ効率の両方の観点から、既存のベースラインを上回っていることだ。
論文 参考訳(メタデータ) (2024-03-05T14:18:15Z) - qPOTS: Efficient batch multiobjective Bayesian optimization via Pareto
optimal Thompson sampling [0.0]
多目的最適化を解くためのサンプル効率のアプローチはプロセス・オラクル・サロゲート (GP) を経由する。
本稿では,ランダムGPサンプルのフロンティアから新しい候補を選択する,単純かつ効果的なトンプソンサンプリングに基づくアプローチを提案する。
提案手法は, 実世界の実験だけでなく, 精度, 計算効率の両面において, 高い実験性能を示すものである。
論文 参考訳(メタデータ) (2023-10-24T12:35:15Z) - Large Language Models as Optimizers [106.52386531624532]
本稿では,大規模言語モデル (LLM) をプロンプトとして活用するためのシンプルで効果的な手法である Prompting (OPRO) を提案する。
各最適化ステップにおいて、LLMは、前述した値を含むプロンプトから新しい解を生成する。
OPROにより最適化された最良のプロンプトは、GSM8Kで最大8%、Big-Bench Hardタスクで最大50%向上することを示した。
論文 参考訳(メタデータ) (2023-09-07T00:07:15Z) - Maximize to Explore: One Objective Function Fusing Estimation, Planning,
and Exploration [87.53543137162488]
我々はtextttMEX というオンライン強化学習(オンラインRL)フレームワークを提案する。
textttMEXは、自動的に探索エクスプロイトのバランスをとりながら、見積もりと計画コンポーネントを統合する。
様々な MuJoCo 環境では,ベースラインを安定的なマージンで上回り,十分な報酬を得られる。
論文 参考訳(メタデータ) (2023-05-29T17:25:26Z) - Quantum Alternating Operator Ansatz for Solving the Minimum Exact Cover
Problem [4.697039614904225]
量子交互演算子 ansatz (QAOA+) を用いて最小被覆(MEC)問題を解く。
数値計算の結果,アルゴリズムのレベル$p$が低い場合,高い確率で解が得られることがわかった。
また、1量子ビット回転ゲートを$R_Z$で除去することで量子回路を最適化する。
論文 参考訳(メタデータ) (2022-11-28T12:45:52Z) - Min-Max Bilevel Multi-objective Optimization with Applications in
Machine Learning [30.25074797092709]
本稿では,min-maxバイレベル多目的最適化フレームワークを提案する。
表現学習と超目的学習の応用を強調している。
論文 参考訳(メタデータ) (2022-03-03T18:56:13Z) - Unsupervised strategies for identifying optimal parameters in Quantum
Approximate Optimization Algorithm [3.508346077709686]
最適化なしでパラメータを設定するための教師なし機械学習手法について検討する。
繰り返しに使用するQAOAパラメータの数が3ドルに制限された場合、これらをRecursive-QAOAで3ドルまで紹介します。
我々は、アングルを広範囲に最適化し、多数のサーキットコールを省く場合と同じような性能を得る。
論文 参考訳(メタデータ) (2022-02-18T19:55:42Z) - An Efficient Batch Constrained Bayesian Optimization Approach for Analog
Circuit Synthesis via Multi-objective Acquisition Ensemble [11.64233949999656]
MACE(Multi-objective Acquisition Function Ensemble)を用いた並列化可能なベイズ最適化アルゴリズムを提案する。
提案アルゴリズムは,バッチサイズが15のときの非制約最適化問題に対する微分進化(DE)と比較して,シミュレーション全体の時間を最大74倍削減することができる。
制約付き最適化問題に対して,提案アルゴリズムは,バッチサイズが15の場合に,重み付き改善に基づくベイズ最適化(WEIBO)アプローチと比較して最大15倍の高速化を実現することができる。
論文 参考訳(メタデータ) (2021-06-28T13:21:28Z) - Provably Faster Algorithms for Bilevel Optimization [54.83583213812667]
バイレベル最適化は多くの重要な機械学習アプリケーションに広く適用されている。
両レベル最適化のための2つの新しいアルゴリズムを提案する。
両アルゴリズムが$mathcalO(epsilon-1.5)$の複雑さを達成し,既存のアルゴリズムを桁違いに上回っていることを示す。
論文 参考訳(メタデータ) (2021-06-08T21:05:30Z) - Adaptive pruning-based optimization of parameterized quantum circuits [62.997667081978825]
Variisyハイブリッド量子古典アルゴリズムは、ノイズ中間量子デバイスの使用を最大化する強力なツールである。
我々は、変分量子アルゴリズムで使用されるそのようなアンサーゼを「効率的な回路訓練」(PECT)と呼ぶ戦略を提案する。
すべてのアンサッツパラメータを一度に最適化する代わりに、PECTは一連の変分アルゴリズムを起動する。
論文 参考訳(メタデータ) (2020-10-01T18:14:11Z) - Provably Efficient Exploration in Policy Optimization [117.09887790160406]
本稿では,最適化アルゴリズム(OPPO)の最適変種を提案する。
OPPO は $tildeO(sqrtd2 H3 T )$ regret を達成する。
我々の知る限りでは、OPPOは、探索する最初の証明可能な効率的なポリシー最適化アルゴリズムである。
論文 参考訳(メタデータ) (2019-12-12T08:40:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。