論文の概要: Conditional Diffusion-based Parameter Generation for Quantum Approximate Optimization Algorithm
- arxiv url: http://arxiv.org/abs/2407.12242v4
- Date: Sat, 18 Jan 2025 04:50:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:16:07.770386
- Title: Conditional Diffusion-based Parameter Generation for Quantum Approximate Optimization Algorithm
- Title(参考訳): 量子近似最適化アルゴリズムにおける条件拡散に基づくパラメータ生成
- Authors: Fanxu Meng, Xiangzhen Zhou, Pengcheng Zhu, Yu Luo,
- Abstract要約: 量子近似最適化(Quantum Approximate Optimization、OAQA)は、MaxCut問題を効率的に解くための約束を示すハイブリッドである。
生成学習モデル、特に denoising diffusion (DDPM) は、グラフデータセット上の分布パラメータを学習することである。
- 参考スコア(独自算出の注目度): 7.48670688063184
- License:
- Abstract: The Quantum Approximate Optimization Algorithm (QAOA) is a hybrid quantum-classical algorithm that shows promise in efficiently solving the MaxCut problem, a representative example of combinatorial optimization. However, its effectiveness heavily depends on the parameter optimization pipeline, where the parameter initialization strategy is nontrivial due to the non-convex and complex optimization landscapes characterized by issues with low-quality local minima. Recent inspiration comes from the diffusion of classical neural network parameters, which has demonstrated that neural network training can benefit from generating good initial parameters through diffusion models. Therefore, in this work, we formulate the problem of finding good initial parameters as a generative task and propose the initial parameter generation scheme through dataset-conditioned pre-trained parameter sampling. Concretely, the generative machine learning model, specifically the denoising diffusion probabilistic model (DDPM), is trained to learn the distribution of pretrained parameters conditioned on the graph dataset. Intuitively, our proposed framework aims at effectively distilling knowledge from pre-trained parameters to generate well-performing initial parameters for QAOA. Compared to random parameter initialization, experiments on various-sized Max-Cut problem instances consistently show that our conditional DDPM is capable of improving the approximation ratio by as much as 14.4%, 11.0%, 11.4% and 7.49%, 8.31%, 6.08% on average for random, regular, and Watts-Strogatz graphs, respectively. Additionally, the experimental results also indicate that the conditional DDPM trained on small problem instances can be extrapolated to larger ones, improving the approximation ratio by up to 28.4% and 12.1% on average.
- Abstract(参考訳): 量子近似最適化アルゴリズム(Quantum Approximate Optimization Algorithm, QAOA)は、組合せ最適化の代表的な例であるMaxCut問題を効率的に解くための約束を示すハイブリッド量子古典アルゴリズムである。
しかし、パラメータ初期化戦略は、低品質な局所最小値の問題に特徴付けられる非凸かつ複雑な最適化環境のため、パラメータ初期化戦略が非自明なため、パラメータ最適化パイプラインに大きく依存する。
最近のインスピレーションは、古典的ニューラルネットワークパラメータの拡散によるもので、ニューラルネットワークトレーニングは拡散モデルを通じて優れた初期パラメータを生成することの恩恵を享受できることを実証している。
そこで本研究では、生成タスクとして優れた初期パラメータを求める問題を定式化し、データセット条件付き事前学習パラメータサンプリングによる初期パラメータ生成手法を提案する。
具体的には、生成機械学習モデル、特に拡散確率モデル(DDPM)を訓練し、グラフデータセット上で条件付けられた事前学習パラメータの分布を学習する。
直感的に,本フレームワークは事前学習したパラメータから知識を効果的に抽出し,QAOAの優れた初期パラメータを生成することを目的としている。
ランダムパラメータの初期化と比較すると、我々の条件DDPMは、ランダムグラフ、正規グラフ、Watts-Strogatzグラフの平均で14.4%、11.0%、11.4%、および7.49%、8.31%、および6.08%の近似比を改善することができる。
さらに, 実験結果から, 小問題インスタンスでトレーニングした条件DDPMは, より大きなインスタンスに外挿可能であり, 近似比を平均で28.4%, 12.1%向上することが示唆された。
関連論文リスト
- Accelerated zero-order SGD under high-order smoothness and overparameterized regime [79.85163929026146]
凸最適化問題を解くための新しい勾配のないアルゴリズムを提案する。
このような問題は医学、物理学、機械学習で発生する。
両種類の雑音下で提案アルゴリズムの収束保証を行う。
論文 参考訳(メタデータ) (2024-11-21T10:26:17Z) - Scaling Exponents Across Parameterizations and Optimizers [94.54718325264218]
本稿では,先行研究における重要な仮定を考察し,パラメータ化の新たな視点を提案する。
私たちの経験的調査には、3つの組み合わせでトレーニングされた数万のモデルが含まれています。
最高の学習率のスケーリング基準は、以前の作業の仮定から除外されることがよくあります。
論文 参考訳(メタデータ) (2024-07-08T12:32:51Z) - Hybrid GRU-CNN Bilinear Parameters Initialization for Quantum
Approximate Optimization Algorithm [7.502733639318316]
本稿では, Gated Recurrent Units (GRU), Conal Neural Networks (CNN), and a bilinear strategy as an innovative alternative to conventional approximation for predicting optimal parameters of QAOA circuits。
我々は、GRU-CNN最適化から得られた参照パラメータを用いて、より深い深さでQAOA回路パラメータに初期化するための双線形戦略を用いる。
論文 参考訳(メタデータ) (2023-11-14T03:00:39Z) - An Optimization-based Deep Equilibrium Model for Hyperspectral Image
Deconvolution with Convergence Guarantees [71.57324258813675]
本稿では,ハイパースペクトル画像のデコンボリューション問題に対処する新しい手法を提案する。
新しい最適化問題を定式化し、学習可能な正規化器をニューラルネットワークの形で活用する。
導出した反復解法は、Deep Equilibriumフレームワーク内の不動点計算問題として表現される。
論文 参考訳(メタデータ) (2023-06-10T08:25:16Z) - Stochastic Marginal Likelihood Gradients using Neural Tangent Kernels [78.6096486885658]
線形化されたラプラス近似に下界を導入する。
これらの境界は漸進的な最適化が可能であり、推定精度と計算複雑性とのトレードオフを可能にする。
論文 参考訳(メタデータ) (2023-06-06T19:02:57Z) - Optimization of Annealed Importance Sampling Hyperparameters [77.34726150561087]
Annealed Importance Smpling (AIS) は、深層生成モデルの難易度を推定するために使われる一般的なアルゴリズムである。
本稿では、フレキシブルな中間分布を持つパラメータAISプロセスを提案し、サンプリングに少ないステップを使用するようにブリッジング分布を最適化する。
我々は, 最適化AISの性能評価を行い, 深部生成モデルの限界推定を行い, 他の推定値と比較した。
論文 参考訳(メタデータ) (2022-09-27T07:58:25Z) - Sparse high-dimensional linear regression with a partitioned empirical
Bayes ECM algorithm [62.997667081978825]
疎高次元線形回帰に対する計算効率が高く強力なベイズ的手法を提案する。
パラメータに関する最小の事前仮定は、プラグイン経験的ベイズ推定(英語版)を用いて用いられる。
提案手法はRパッケージプローブに実装されている。
論文 参考訳(メタデータ) (2022-09-16T19:15:50Z) - Regularized Nonlinear Regression for Simultaneously Selecting and
Estimating Key Model Parameters [1.6122433144430324]
システム同定では、限られた観測値を用いてモデルのパラメータを推定すると、識別性が低下する。
感度パラメータをキーモデルパラメータとして同時に選択および推定し、残りのパラメータを典型的な値の集合に固定する新しい方法を提案する。
論文 参考訳(メタデータ) (2021-04-23T06:17:57Z) - A Population-based Hybrid Approach to Hyperparameter Optimization for
Neural Networks [0.0]
HBRKGAは、Biased Random Key Genetic AlgorithmとRandom Walk技術を組み合わせて、ハイパーパラメータ空間を効率的に探索するハイブリッドアプローチである。
その結果、HBRKGAは8つのデータセットのうち6つにおいて、ベースライン法よりも優れたハイパーパラメータ構成を見つけることができた。
論文 参考訳(メタデータ) (2020-11-22T17:12:31Z) - Bayesian Sparse learning with preconditioned stochastic gradient MCMC
and its applications [5.660384137948734]
提案アルゴリズムは, 温和な条件下で, 制御可能なバイアスで正しい分布に収束する。
提案アルゴリズムは, 温和な条件下で, 制御可能なバイアスで正しい分布に収束可能であることを示す。
論文 参考訳(メタデータ) (2020-06-29T20:57:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。