論文の概要: An angle rounding parameter initialization technique for ma-QAOA
- arxiv url: http://arxiv.org/abs/2404.10743v1
- Date: Tue, 16 Apr 2024 17:19:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-17 15:55:23.542824
- Title: An angle rounding parameter initialization technique for ma-QAOA
- Title(参考訳): Ma-QAOAの角度ラウンドパラメータ初期化手法
- Authors: Anthony Wilkie, James Ostrowski, Rebekah Herrman,
- Abstract要約: ma-QAOAは、量子近似最適化アルゴリズム(QAOA)と少なくとも同じ近似比を与える最近導入されたアルゴリズムである。
ma-QAOAの欠点の1つは、QAOAよりもかなり古典的なパラメータを使用するため、古典的な最適化成分はより複雑である。
BFGSの1ラウンドをランダムに$pi/4$から$pi$の倍数に設定する新しいパラメータ初期化戦略を動機付け、このベクトルを用いてBFGSの1ラウンドをシードする。
- 参考スコア(独自算出の注目度): 2.048226951354646
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The multi-angle quantum approximate optimization algorithm (ma-QAOA) is a recently introduced algorithm that gives at least the same approximation ratio as the quantum approximate optimization algorithm (QAOA) and, in most cases, gives a significantly higher approximation ratio than QAOA. One drawback to ma-QAOA is that it uses significantly more classical parameters than QAOA, so the classical optimization component more complex. In this paper, we motivate a new parameter initialization strategy in which angles are initially randomly set to multiples of $\pi/4$ between $-2\pi$ and $2\pi$ and this vector is used to seed one round of BFGS. We find that the parameter initialization strategy on four-vertex and eight-vertex data sets gives average approximation ratios of 0.931 and 0.894, respectively. This is comparable to the average approximation ratios of ma-QAOA where optimal parameters are found using BFGS with 1 random starting seed, which are 0.910 and 0.901 for the four-vertex and eight-vertex data sets.
- Abstract(参考訳): マルチ角量子近似最適化アルゴリズム(ma-QAOA)は、最近導入されたアルゴリズムであり、量子近似最適化アルゴリズム(QAOA)と少なくとも同じ近似比を与え、ほとんどの場合、QAOAよりもはるかに高い近似比を与える。
ma-QAOAの欠点の1つは、QAOAよりもかなり古典的なパラメータを使用するため、古典的な最適化成分はより複雑である。
そこで本研究では,まず,まずランダムに$\pi/4$を$2\pi$から$2\pi$の倍数に設定し,このベクトルを用いてBFGSの1ラウンドのシードを行う新しいパラメータ初期化戦略を提案する。
4頂点データセットと8頂点データセットのパラメータ初期化戦略により,それぞれ0.931と0.894の平均近似比が得られた。
これは、4頂点と8頂点のデータセットに対して0.910と0.901である1つのランダム開始シードを持つBFGSを用いて最適パラメータを求めるma-QAOAの平均近似比に匹敵する。
関連論文リスト
- Theoretical Approximation Ratios for Warm-Started QAOA on 3-Regular Max-Cut Instances at Depth $p=1$ [0.0]
我々はFarhiの0.6924近似結果技術をウォームスタートQAOAに一般化する。
初期状態が積状態であり、各キュービット位置がブロッホ球の北極または南極から約$theta$離れた角度にある場合の温暖開始を考える。
論文 参考訳(メタデータ) (2024-02-20T01:22:07Z) - An Algorithm with Optimal Dimension-Dependence for Zero-Order Nonsmooth Nonconvex Stochastic Optimization [37.300102993926046]
リプシッツの目的の滑らかな点も凸点も生成しない点の複雑さについて検討する。
私たちの分析は単純だが強力だ。
Goldstein-subdifferential set, これは最近の進歩を可能にする。
非滑らかな非最適化
論文 参考訳(メタデータ) (2023-07-10T11:56:04Z) - An Oblivious Stochastic Composite Optimization Algorithm for Eigenvalue
Optimization Problems [76.2042837251496]
相補的な合成条件に基づく2つの難解なミラー降下アルゴリズムを導入する。
注目すべきは、どちらのアルゴリズムも、目的関数のリプシッツ定数や滑らかさに関する事前の知識なしで機能する。
本稿では,大規模半確定プログラム上での手法の効率性とロバスト性を示す。
論文 参考訳(メタデータ) (2023-06-30T08:34:29Z) - Quantum Approximate Optimization Algorithm Parameter Prediction Using a
Convolutional Neural Network [0.0]
我々は、深度$p+1$QAOAのパラメータから深度$p+1$QAOAのパラメータを予測する畳み込みニューラルネットワークを構築している。
Max-Cut に対する平均近似比 92735$ 800$ ErdHos-R'enyi を得る。
論文 参考訳(メタデータ) (2022-11-17T13:20:58Z) - Extra-Newton: A First Approach to Noise-Adaptive Accelerated
Second-Order Methods [57.050204432302195]
本研究では,2次スムーズな凸関数を最小化するための普遍的かつ適応的な2次法を提案する。
我々のアルゴリズムは、オラクルフィードバックが分散$sigma2$であるときに$O(sigma / sqrtT)$収束を達成し、決定論的オラクルで$O(1 / T3)$に収束を改善する。
論文 参考訳(メタデータ) (2022-11-03T14:12:51Z) - Clustering Mixture Models in Almost-Linear Time via List-Decodable Mean
Estimation [58.24280149662003]
本稿では,データセットの大部分を敵が破壊できるリストデコタブル平均推定の問題について検討する。
我々は、ほぼ最適な統計的保証を達成するために、リストデコダブル平均推定のための新しいアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-06-16T03:34:14Z) - Hybrid quantum-classical algorithms for approximate graph coloring [65.62256987706128]
量子近似最適化アルゴリズム(RQAOA)をMAX-$k$-CUTに適用する方法を示す。
任意のグラフに対するレベル-$1$QAOAとレベル-$1$RQAOAをシミュレートした,効率的な古典的シミュレーションアルゴリズムを構築する。
論文 参考訳(メタデータ) (2020-11-26T18:22:21Z) - Streaming Complexity of SVMs [110.63976030971106]
本稿では,ストリーミングモデルにおけるバイアス正規化SVM問題を解く際の空間複雑性について検討する。
両方の問題に対して、$frac1lambdaepsilon$の次元に対して、$frac1lambdaepsilon$よりも空間的に小さいストリーミングアルゴリズムを得ることができることを示す。
論文 参考訳(メタデータ) (2020-07-07T17:10:00Z) - A Simple Convergence Proof of Adam and Adagrad [74.24716715922759]
我々はAdam Adagradと$O(d(N)/st)$アルゴリズムの収束の証明を示す。
Adamはデフォルトパラメータで使用する場合と同じ収束$O(d(N)/st)$で収束する。
論文 参考訳(メタデータ) (2020-03-05T01:56:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。