論文の概要: Training Saturation in Layerwise Quantum Approximate Optimisation
- arxiv url: http://arxiv.org/abs/2106.13814v1
- Date: Fri, 25 Jun 2021 18:00:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-01 11:55:24.137335
- Title: Training Saturation in Layerwise Quantum Approximate Optimisation
- Title(参考訳): 層状量子近似最適化におけるトレーニング飽和
- Authors: E. Campos, D. Rabinovich, V. Akshay, J. Biamonte
- Abstract要約: 量子近似最適化(QAOA)は、今日最も研究されているゲートベースの変分量子アルゴリズムである。
同時にQAOAを1層にトレーニングし、$n$ qubitのターゲットステートでオーバーラップを最大化します。
層状QAOAは深さ$p*=n$で最大オーバーラップに達する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Quantum Approximate Optimisation (QAOA) is the most studied gate based
variational quantum algorithm today. We train QAOA one layer at a time to
maximize overlap with an $n$ qubit target state. Doing so we discovered that
such training always saturates -- called \textit{training saturation} -- at
some depth $p^*$, meaning that past a certain depth, overlap can not be
improved by adding subsequent layers. We formulate necessary conditions for
saturation. Numerically, we find layerwise QAOA reaches its maximum overlap at
depth $p^*=n$. The addition of coherent dephasing errors to training removes
saturation, recovering robustness to layerwise training. This study sheds new
light on the performance limitations and prospects of QAOA.
- Abstract(参考訳): 量子近似最適化(QAOA)は、今日最も研究されているゲートベースの変分量子アルゴリズムである。
同時にQAOAを1層にトレーニングし、$n$ qubitのターゲットステートでオーバーラップを最大化します。
これによって、このようなトレーニングは常に -- \textit{training saturation} と呼ばれる -- 一定の深さの $p^*$ で飽和していることが分かりました。
我々は飽和に必要な条件を定式化する。
数値的には、層状qaoaは深さ$p^*=n$で最大重なりに達する。
トレーニングに一貫性を欠くエラーを加えることで、飽和が解消され、層間トレーニングの堅牢性が回復する。
本研究は,QAOAの性能限界と今後の展望について,新たな光を当てるものである。
関連論文リスト
- FlatQuant: Flatness Matters for LLM Quantization [58.28221892035609]
重みとアクティベーションの平坦性を高めるための新しいポストトレーニング量子化手法であるFlatQuantを提案する。
提案手法では,各線形層に配向した最適アフィン変換を,軽量な対象ランタイムを介して数時間で校正する。
推論レイテンシーのために、FlatQuantは、プリ量子化変換によって引き起こされる遅延を、QuatRotの0.26xから単に$textbf0.07x$に減らし、プリフィルの$textbf2.3x$とデコードのための$textbf1.7x$のスピードアップをもたらす。
論文 参考訳(メタデータ) (2024-10-12T08:10:28Z) - Depth scaling of unstructured search via quantum approximate optimization [0.0]
変分量子アルゴリズムは、現在の量子計算のデファクトモデルとなっている。
そのような問題の1つは、ある文字列の特定のビットを見つけることで構成される非構造化探索である。
我々は、CTQWを用いてQAOA配列を復元し、最近のトロッター公式の理論の進歩を利用して、クエリの複雑さを束縛する。
論文 参考訳(メタデータ) (2024-03-22T18:00:03Z) - Projected Stochastic Gradient Descent with Quantum Annealed Binary Gradients [51.82488018573326]
重み付きニューラルネットワークのトレーニングに適した,新しいレイヤワイドオプティマイザであるQP-SBGDを提案する。
BNNは、深層学習モデルの計算要求とエネルギー消費を最小限の精度で削減する。
提案アルゴリズムは階層的に実装されており,リソース制限量子ハードウェア上での大規模ネットワークのトレーニングに適している。
論文 参考訳(メタデータ) (2023-10-23T17:32:38Z) - Alignment between Initial State and Mixer Improves QAOA Performance for
Constrained Optimization [11.445200448951072]
量子交互演算子 ansatz (QAOA) は断熱アルゴリズムと強い関係を持つ。
本稿では, 断熱アルゴリズムの直感がQAOA初期状態を選択するタスクに適用できることを実証する。
論文 参考訳(メタデータ) (2023-05-05T21:54:28Z) - Optimizing the depth of variational quantum algorithms is strongly
QCMA-hard to approximate [0.6445605125467572]
変分量子アルゴリズム (VQA) は、量子ハードウェアへの短期的応用に向けて激しい研究が行われている。
VQA の重要なパラメータは変分アンザッツ' のエンプデプス' である。
与えられたVQAアンザッツの最適深さを近似することは困難であることを示す。
論文 参考訳(メタデータ) (2022-11-22T19:00:01Z) - Gradient-based Weight Density Balancing for Robust Dynamic Sparse
Training [59.48691524227352]
スパースニューラルネットワークをゼロからトレーニングするには、接続自体と同時にコネクションを最適化する必要がある。
トレーニング中に各レイヤ間の接続は複数回最適化されるが、各レイヤの密度は通常一定である。
我々は、すべての層に重みを分散するテクニックであるGlobal Gradient-based Redistributionを提案する。
論文 参考訳(メタデータ) (2022-10-25T13:32:09Z) - Planning and Learning with Adaptive Lookahead [74.39132848733847]
ポリシーイテレーション(PI)アルゴリズムは、欲求の一段階の改善と政策評価を交互に行う。
近年の文献では、複数段階のルックアヘッドポリシーの改善が、イテレーション毎の複雑さの増加を犠牲にして、よりコンバージェンス率の向上につながることが示されている。
本研究では,多段階の地平線を状態と推定値の関数として動的に適応する手法を初めて提案する。
論文 参考訳(メタデータ) (2022-01-28T20:26:55Z) - Mixing Implicit and Explicit Deep Learning with Skip DEQs and Infinite
Time Neural ODEs (Continuous DEQs) [3.222802562733787]
暗黙の深層学習技術は明示的な層法よりも計算集約的である。
我々は,暗黙の予測と暗黙の修正を同時に行う暗黙の明示層であるSkip DEQを開発した。
この明示的なレイヤのトレーニングは無料であり、トレーニング時間を2.5倍、予測時間を3.4倍にまで短縮する。
論文 参考訳(メタデータ) (2022-01-28T16:51:54Z) - Bridging Classical and Quantum with SDP initialized warm-starts for QAOA [4.76507354067301]
本稿では,QAOAをグラフ内のすべての可能なカットの偏重重ね合わせで初期化する,古典的な前処理ステップを紹介する。
我々は、QAOA-Warmと呼ばれるこのQAOAの変種が、トレーニング時間が少なく、低い回路深度で標準QAOAより優れていることを示す。
論文 参考訳(メタデータ) (2020-10-27T02:57:22Z) - Differentially Quantized Gradient Methods [53.3186247068836]
微分量子化グラディエントDescence (DQ-GD) が$maxsigma_mathrmGD, rhon 2-R$の線形収縮係数を得ることを示す。
あるクラス内のアルゴリズムは$maxsigma_mathrmGD, 2-R$よりも早く収束できない。
論文 参考訳(メタデータ) (2020-02-06T20:40:53Z) - Towards Better Understanding of Adaptive Gradient Algorithms in
Generative Adversarial Nets [71.05306664267832]
適応アルゴリズムは勾配の歴史を用いて勾配を更新し、深層ニューラルネットワークのトレーニングにおいてユビキタスである。
本稿では,非コンケーブ最小値問題に対するOptimisticOAアルゴリズムの変種を解析する。
実験の結果,適応型GAN非適応勾配アルゴリズムは経験的に観測可能であることがわかった。
論文 参考訳(メタデータ) (2019-12-26T22:10:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。