論文の概要: Scaling QAOA: transferring optimal adiabatic schedules from small-scale to large-scale variational circuits
- arxiv url: http://arxiv.org/abs/2602.14986v1
- Date: Mon, 16 Feb 2026 18:12:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 16:22:50.574672
- Title: Scaling QAOA: transferring optimal adiabatic schedules from small-scale to large-scale variational circuits
- Title(参考訳): スケーリングQAOA:小規模・大規模変動回路からの最適断熱スケジュールの転送
- Authors: Ugo Nzongani, Dylan Laplace Mermoud, Arthur Braida,
- Abstract要約: 本稿では,小規模インスタンスから大規模システムへスペクトルギャップ情報に基づくアダバティック制御戦略を移行するスケジュール学習フレームワークを提案する。
提案手法は,QAOAにおける拡張的かつパラメータ効率のよいスケジュール転送を実現することを示唆する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Quantum Approximate Optimization Algorithm (QAOA) is a leading approach for combinatorial optimization on near-term quantum devices, yet its scalability is limited by the difficulty of optimizing \(2p\) variational parameters for a large number \(p\) of layers. Recent empirical studies indicate that optimal QAOA angles exhibit concentration and transferability across problem sizes. Leveraging this observation, we propose a schedule-learning framework that transfers spectral-gap-informed adiabatic control strategies from small-scale instances to larger systems. Our method extracts the spectral gap profile of small problems and constructs a continuous schedule governed by \(\partial_t s = κg^q(s)\), where \(g(s)\) is the instantaneous gap and \((κ, q)\) are global hyperparameters. Discretizing this schedule yields closed-form expressions for all QAOA angles, reducing the classical optimization task from \(2p\) parameters to only \(2\), independent of circuit depth. This drastic parameter compression mitigates classical optimization overhead and reduces sensitivity to barren plateau phenomena. Numerical simulations on random QUBO and 3-regular MaxCut instances demonstrate that the learnt schedules transfer effectively to larger systems while achieving competitive approximation ratios. Our results suggest that gap-informed schedule transfers provide a scalable and parameter-efficient strategy for QAOA.
- Abstract(参考訳): 量子近似最適化アルゴリズム(Quantum Approximate Optimization Algorithm, QAOA)は、近距離量子デバイスにおける組合せ最適化の先駆的なアプローチであるが、そのスケーラビリティは、多数の層に対して(2p)の変分パラメータを最適化することの難しさによって制限されている。
近年の実証研究により、QAOAの最適角度は問題の大きさにまたがる濃度と伝達性を示すことが示されている。
そこで本研究では,小型インスタンスから大規模システムへスペクトルギャップインフォームドアディバティック制御戦略を移行するスケジュール学習フレームワークを提案する。
提案手法は,小問題のスペクトルギャッププロファイルを抽出し,大域的ハイパーパラメータである(\partial_t s = κg^q(s)\), \(g(s)\), \((κ, q)\) による連続スケジュールを構築する。
このスケジュールを離散化すると、全てのQAOA角に対する閉形式式が得られ、古典的な最適化タスクは回路深さに依存しない(2p)パラメータからわずか(2\)まで減少する。
この劇的なパラメータ圧縮は、古典的な最適化オーバーヘッドを軽減し、バレンプラトー現象に対する感度を低下させる。
ランダムQUBOと3つの正則MaxCutインスタンスの数値シミュレーションにより、学習したスケジュールが競合近似比を達成しつつ、より大規模なシステムに効果的に転送されることを示した。
提案手法は,QAOAにおける拡張的かつパラメータ効率のよいスケジュール転送を実現することを示唆する。
関連論文リスト
- Hyperparameter Transfer Enables Consistent Gains of Matrix-Preconditioned Optimizers Across Scales [55.91454326946738]
学習速度と減量率の最適化は,幅広い言語に対して,モデルの幅と深さでどのようにスケールするかを検討する。
我々は、$Pによる学習率のスケーリングは転送を改善するが、それでもかなりの有限幅偏差に悩まされる可能性があることを見出した。
計算-最適スケーリングでは、独立したウェイト崩壊が1/mathrmwidth$で言語間でほぼ最適であることが分かる。
論文 参考訳(メタデータ) (2025-12-05T11:03:41Z) - Iterative Interpolation Schedules for Quantum Approximate Optimization Algorithm [1.845978975395919]
本稿では,最適パラメータスケジュールの滑らかさを関数に基づいて表現することで,反復的手法を提案する。
提案手法は,現在の手法よりも少ない最適化ステップで性能の向上を実証する。
最大のLABSの場合、1000層を超えるスケジュールでほぼ最適のメリットを達成できます。
論文 参考訳(メタデータ) (2025-04-02T12:53:21Z) - How Much Entanglement Do Quantum Optimization Algorithms Require? [0.0]
ADAPT-QAOA施行時に発生する絡みについて検討した。
この柔軟性を漸進的に制限することにより、初期におけるより多くの絡み合いエントロピーが、後段におけるより速い収束と一致していることが分かる。
論文 参考訳(メタデータ) (2022-05-24T18:00:02Z) - Twisted hybrid algorithms for combinatorial optimization [68.8204255655161]
提案されたハイブリッドアルゴリズムは、コスト関数をハミルトニアン問題にエンコードし、回路の複雑さの低い一連の状態によってエネルギーを最適化する。
レベル$p=2,ldots, 6$の場合、予想される近似比をほぼ維持しながら、レベル$p$を1に減らすことができる。
論文 参考訳(メタデータ) (2022-03-01T19:47:16Z) - Faster One-Sample Stochastic Conditional Gradient Method for Composite
Convex Minimization [61.26619639722804]
滑らかで非滑らかな項の和として形成される凸有限サム目標を最小化するための条件勾配法(CGM)を提案する。
提案手法は, 平均勾配 (SAG) 推定器を備え, 1回に1回のサンプルしか必要としないが, より高度な分散低減技術と同等の高速収束速度を保証できる。
論文 参考訳(メタデータ) (2022-02-26T19:10:48Z) - STORM+: Fully Adaptive SGD with Momentum for Nonconvex Optimization [74.1615979057429]
本研究では,スムーズな損失関数に対する期待値である非バッチ最適化問題について検討する。
我々の研究は、学習率と運動量パラメータを適応的に設定する新しいアプローチとともに、STORMアルゴリズムの上に構築されている。
論文 参考訳(メタデータ) (2021-11-01T15:43:36Z) - Parameters Fixing Strategy for Quantum Approximate Optimization
Algorithm [0.0]
そこで本稿では,QAOAをパラメータとして初期化することで,回路深度が大きければ平均で高い近似比を与える手法を提案する。
我々は3つの正則グラフやエルド・オス=ルネニグラフのようなグラフのある種のクラスにおけるマックスカット問題に対する我々の戦略をテストする。
論文 参考訳(メタデータ) (2021-08-11T15:44:16Z) - Adaptive pruning-based optimization of parameterized quantum circuits [62.997667081978825]
Variisyハイブリッド量子古典アルゴリズムは、ノイズ中間量子デバイスの使用を最大化する強力なツールである。
我々は、変分量子アルゴリズムで使用されるそのようなアンサーゼを「効率的な回路訓練」(PECT)と呼ぶ戦略を提案する。
すべてのアンサッツパラメータを一度に最適化する代わりに、PECTは一連の変分アルゴリズムを起動する。
論文 参考訳(メタデータ) (2020-10-01T18:14:11Z) - Balancing Rates and Variance via Adaptive Batch-Size for Stochastic
Optimization Problems [120.21685755278509]
本研究は,ステップサイズの減衰が正確な収束に必要であるという事実と,一定のステップサイズがエラーまでの時間でより速く学習するという事実のバランスをとることを目的とする。
ステップサイズのミニバッチを最初から修正するのではなく,パラメータを適応的に進化させることを提案する。
論文 参考訳(メタデータ) (2020-07-02T16:02:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。