論文の概要: A Cyclic Layerwise QAOA Training
- arxiv url: http://arxiv.org/abs/2601.20029v1
- Date: Tue, 27 Jan 2026 20:04:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-29 15:46:06.647559
- Title: A Cyclic Layerwise QAOA Training
- Title(参考訳): 循環型層状QAOAトレーニング
- Authors: Enhyeok Jang, Zihan Chen, Dongho Ha, Seungwoo Choi, Yongju Lee, Jaewon Kwon, Eddy Z. Zhang, Yipeng Huang, Won Woo Ro,
- Abstract要約: 多角QAOA (MA-QAOA) はハミルトン作用素項に独立パラメータを割り当てる。
最近提案されたLayerwise MA-QAOA(LMA-QAOA)は、一度に1つのレイヤをトレーニングすることで、このオーバーヘッドを削減する。
そこで我々は,Orbit-QAOAを提案する。
- 参考スコア(独自算出の注目度): 10.895448039822753
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The quantum approximate optimization algorithm (QAOA) is a hybrid quantum-classical algorithm for solving combinatorial optimization problems. Multi-angle QAOA (MA-QAOA), which assigns independent parameters to each Hamiltonian operator term, achieves superior approximation performance even with fewer layers than standard QAOA. Unfortunately, this increased expressibility can raise the classical computational cost due to a greater number of parameters. The recently proposed Layerwise MA-QAOA (LMA-QAOA) reduces this overhead by training one layer at a time, but it may suffer from obtaining the precise solution due to the previously fixed parameters. This work addresses two questions for efficient MA-QAOA training: (i) What is the optimal granularity for parameter updates per epoch, and (ii) How can we get precise final cost function results while only partially updating the parameters per epoch? Despite the benefit of reducing the parameters that update per epoch can reduce the classical computation overhead, too fine or coarse a granularity of Hamiltonian update can degrade the MA-QAOA training efficiency. We find that optimizing one complete layer per epoch is an efficient granularity. Moreover, selectively retraining each layer by tracking gradient variations can achieve a final cost function equivalent to the standard MA-QAOA while lowering the parameter update overhead. Based on these insights, we propose Orbit-QAOA, which cyclically revisits layers and selectively freezes stabilized parameters. Across diverse graph benchmarks, Orbit-QAOA reduces training steps by up to 81.8%, reduces approximation ratio error by up to 72x compared to the unified stop condition-applied enhanced LMA-QAOA, and achieves equivalent approximation performance compared to the standard MA-QAOA.
- Abstract(参考訳): 量子近似最適化アルゴリズム(QAOA)は、組合せ最適化問題を解決するためのハイブリッド量子古典アルゴリズムである。
各ハミルトン作用素項に独立パラメータを割り当てるマルチアングルQAOA(MA-QAOA)は、標準QAOAよりも少ない層でも優れた近似性能を実現する。
残念ながら、この表現性の向上は、パラメータの数が多いため、古典的な計算コストを上昇させる可能性がある。
最近提案されたLayerwise MA-QAOA (LMA-QAOA) は、このオーバーヘッドを一度に1つのレイヤをトレーニングすることで低減するが、以前固定されたパラメータによって正確な解を得るのに苦労する可能性がある。
本研究は, 効率的なMA-QAOAトレーニングのための2つの質問に対処する。
(i)エポック毎のパラメータ更新に最適な粒度とは何か、
(ii)エポック毎のパラメータを部分的に更新しながら、最終的なコスト関数の正確な結果を得るにはどうすればいいのか?
エポック毎に更新されるパラメータを減らすことで、古典的な計算オーバーヘッドを減らすことができるが、ハミルトン更新の粒度が大きすぎるか粗いかは、MA-QAOAトレーニング効率を低下させる可能性がある。
我々はエポック毎に1つの完備層を最適化することが効率的な粒度であることを発見した。
さらに、勾配変化を追跡して各層を選択的に再トレーニングすることで、パラメータ更新オーバーヘッドを下げつつ、標準MA-QAOAと同等の最終的なコスト関数を得ることができる。
これらの知見に基づき,Orbit-QAOAを提案する。
様々なグラフベンチマークにおいて、Orbit-QAOAはトレーニングステップを最大81.8%削減し、停止条件が適用された拡張LMA-QAOAと比較して近似比誤差を最大72倍削減し、標準MA-QAOAと比較して同等の近似性能を達成する。
関連論文リスト
- An Optimization-Free Recursive QAOA for the Binary Paint Shop Problem [0.0]
BPSP(Binary Paint Shop Problem)は、自動車間の色の変化を最小限に抑えつつ、一定の制約の下で車列を塗装しなければならない製造における最適化問題である。
パラメータ転送はQAOAとRQAOAの最適化よりも解の質が著しく低下しないことを示す。
RQAOAはフルステートベクターの代わりに$Z$-correlationsを計測することしか必要とせず、CNOT数と深さが著しく低い回路につながる逆カソーサルコーンの利点がある。
論文 参考訳(メタデータ) (2025-07-15T01:54:11Z) - Adam assisted Fully informed Particle Swarm Optimization ( Adam-FIPSO ) based Parameter Prediction for the Quantum Approximate Optimization Algorithm (QAOA) [1.024113475677323]
量子近似最適化アルゴリズム(Quantum Approximate Optimization Algorithm, QAOA)は、マックス・カット問題などの最適化問題の解法として用いられる顕著な変分アルゴリズムである。
QAOAの重要な課題は、高品質なソリューションにつながる適切なパラメータを効率的に特定することである。
論文 参考訳(メタデータ) (2025-06-07T13:14:41Z) - QAOA-PCA: Enhancing Efficiency in the Quantum Approximate Optimization Algorithm via Principal Component Analysis [4.511923587827302]
我々はQAOAパラメータ空間の次元性を低減するためにQAOA-PCAを導入する。
我々は、QAOA-PCAが標準QAOAよりも一貫して少ないイテレーションを必要とすることを示す。
QAOA-PCAはパラメータ数に一致する場合、ほぼ常に標準QAOAよりも優れる。
論文 参考訳(メタデータ) (2025-04-23T14:27:31Z) - Proactively incremental-learning QAOA [9.677961025372115]
逐次学習に基づく量子近似最適化アルゴリズム(QAOA)を提案する。
本手法は, 近似比(AR)とトレーニング時間において, 一般的なQAOAよりも優れた性能を有する。
論文 参考訳(メタデータ) (2023-11-04T02:15:26Z) - Optimization of Annealed Importance Sampling Hyperparameters [77.34726150561087]
Annealed Importance Smpling (AIS) は、深層生成モデルの難易度を推定するために使われる一般的なアルゴリズムである。
本稿では、フレキシブルな中間分布を持つパラメータAISプロセスを提案し、サンプリングに少ないステップを使用するようにブリッジング分布を最適化する。
我々は, 最適化AISの性能評価を行い, 深部生成モデルの限界推定を行い, 他の推定値と比較した。
論文 参考訳(メタデータ) (2022-09-27T07:58:25Z) - Twisted hybrid algorithms for combinatorial optimization [68.8204255655161]
提案されたハイブリッドアルゴリズムは、コスト関数をハミルトニアン問題にエンコードし、回路の複雑さの低い一連の状態によってエネルギーを最適化する。
レベル$p=2,ldots, 6$の場合、予想される近似比をほぼ維持しながら、レベル$p$を1に減らすことができる。
論文 参考訳(メタデータ) (2022-03-01T19:47:16Z) - STORM+: Fully Adaptive SGD with Momentum for Nonconvex Optimization [74.1615979057429]
本研究では,スムーズな損失関数に対する期待値である非バッチ最適化問題について検討する。
我々の研究は、学習率と運動量パラメータを適応的に設定する新しいアプローチとともに、STORMアルゴリズムの上に構築されている。
論文 参考訳(メタデータ) (2021-11-01T15:43:36Z) - A Momentum-Assisted Single-Timescale Stochastic Approximation Algorithm
for Bilevel Optimization [112.59170319105971]
問題に対処するための新しいアルゴリズム - Momentum- Single-timescale Approximation (MSTSA) を提案する。
MSTSAでは、低いレベルのサブプロブレムに対する不正確な解決策のため、反復でエラーを制御することができます。
論文 参考訳(メタデータ) (2021-02-15T07:10:33Z) - Adaptive pruning-based optimization of parameterized quantum circuits [62.997667081978825]
Variisyハイブリッド量子古典アルゴリズムは、ノイズ中間量子デバイスの使用を最大化する強力なツールである。
我々は、変分量子アルゴリズムで使用されるそのようなアンサーゼを「効率的な回路訓練」(PECT)と呼ぶ戦略を提案する。
すべてのアンサッツパラメータを一度に最適化する代わりに、PECTは一連の変分アルゴリズムを起動する。
論文 参考訳(メタデータ) (2020-10-01T18:14:11Z) - Balancing Rates and Variance via Adaptive Batch-Size for Stochastic
Optimization Problems [120.21685755278509]
本研究は,ステップサイズの減衰が正確な収束に必要であるという事実と,一定のステップサイズがエラーまでの時間でより速く学習するという事実のバランスをとることを目的とする。
ステップサイズのミニバッチを最初から修正するのではなく,パラメータを適応的に進化させることを提案する。
論文 参考訳(メタデータ) (2020-07-02T16:02:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。