論文の概要: Learning to learn with an evolutionary strategy applied to variational
quantum algorithms
- arxiv url: http://arxiv.org/abs/2310.17402v1
- Date: Thu, 26 Oct 2023 13:55:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-27 20:21:24.712374
- Title: Learning to learn with an evolutionary strategy applied to variational
quantum algorithms
- Title(参考訳): 変分量子アルゴリズムに応用した進化的戦略による学習
- Authors: Lucas Friedrich, Jonas Maziero
- Abstract要約: 変分量子アルゴリズム(VQA)は、コスト関数を最小化するために古典的手法を用いて最適化された$U$でパラメータ化された量子回路を用いる。
本稿では,LLES(Learning to Learn with an Evolutionary Strategy')という新しい最適化手法を紹介する。
LLESは最適化を学習問題として扱い、繰り返しニューラルネットワークを用いてVQAパラメータを反復的に提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Variational Quantum Algorithms (VQAs) employ quantum circuits parameterized
by $U$, optimized using classical methods to minimize a cost function. While
VQAs have found broad applications, certain challenges persist. Notably, a
significant computational burden arises during parameter optimization. The
prevailing ``parameter shift rule'' mandates a double evaluation of the cost
function for each parameter. In this article, we introduce a novel optimization
approach named ``Learning to Learn with an Evolutionary Strategy'' (LLES). LLES
unifies ``Learning to Learn'' and ``Evolutionary Strategy'' methods. ``Learning
to Learn'' treats optimization as a learning problem, utilizing recurrent
neural networks to iteratively propose VQA parameters. Conversely,
``Evolutionary Strategy'' employs gradient searches to estimate function
gradients. Our optimization method is applied to two distinct tasks:
determining the ground state of an Ising Hamiltonian and training a quantum
neural network. Results underscore the efficacy of this novel approach.
Additionally, we identify a key hyperparameter that significantly influences
gradient estimation using the ``Evolutionary Strategy'' method.
- Abstract(参考訳): 変分量子アルゴリズム(VQA)は、コスト関数を最小化するために古典的手法を用いて最適化された$U$でパラメータ化された量子回路を用いる。
VQAは幅広いアプリケーションを見つけましたが、いくつかの課題は続きます。
特に、パラメータ最適化中にかなりの計算負荷が発生する。
一般的な ``parameter shift rule'' は、各パラメータのコスト関数の二重評価を義務付ける。
本稿では,「LLES(Learning to Learn with an Evolutionary Strategy)」という新しい最適化手法を紹介する。
LLESは ``earning to Learn'' と ``Evolutionary Strategy'' メソッドを統一する。
学習への学習'は、繰り返しニューラルネットワークを用いてVQAパラメータを反復的に提案することで、最適化を学習問題として扱う。
逆に 'Evolutionary Strategy'' は関数勾配を推定するために勾配探索を用いる。
本手法は,Ising Hamiltonianの基底状態の決定と量子ニューラルネットワークのトレーニングという,2つの異なるタスクに適用する。
結果は、この新しいアプローチの有効性を強調する。
さらに,<進化的戦略'法を用いて,勾配推定に大きな影響を及ぼす重要なハイパーパラメータを同定する。
関連論文リスト
- A Study on Optimization Techniques for Variational Quantum Circuits in Reinforcement Learning [2.7504809152812695]
研究者は変分量子回路(VQC)に注目している
VQCは、パラメータによって調整可能な量子回路をマージするハイブリッドアルゴリズムである。
近年の研究では、強化学習にVQCを適用する新しい方法が提示されている。
論文 参考訳(メタデータ) (2024-05-20T20:06:42Z) - Variational quantum algorithm for enhanced continuous variable optical
phase sensing [0.0]
変分量子アルゴリズム(VQA)は、ノイズ量子デバイスにおける幅広い問題に対処するために用いられるハイブリッド量子古典的アプローチである。
本研究では, 連続変数プラットフォーム上でのパラメータ推定の最適化のために, 圧縮光に基づく変分アルゴリズムを実装した。
論文 参考訳(メタデータ) (2023-12-21T14:11:05Z) - Optimization strategies in WAHTOR algorithm for quantum computing
empirical ansatz: a comparative study [0.0]
本研究はWAHTORアルゴリズムの非断熱バージョンを導入し,その効率を3つの実装と比較する。
固定されたVQEパラメータでハミルトニアンの1階微分と2階微分を計算することは、原型的なQPUオーバーロードを導入しない。
ハバードモデルシステムの場合、信頼領域非断熱最適化の方が効率的であることが判明した。
論文 参考訳(メタデータ) (2023-06-19T15:07:55Z) - Variance-Reduced Gradient Estimation via Noise-Reuse in Online Evolution
Strategies [50.10277748405355]
Noise-Reuse Evolution Strategies (NRES) は、非バイアスのオンライン進化戦略の一般的なクラスである。
NRESの結果は既存のAD法やES法よりも早く,様々なアプリケーションにまたがるウォールクロック時間とステップ数で収束することを示す。
論文 参考訳(メタデータ) (2023-04-21T17:53:05Z) - Learning Sampling Policy for Faster Derivative Free Optimization [100.27518340593284]
ランダムサンプリングではなく,ZO最適化における摂動を生成するためのサンプリングポリシを学習する,新たな強化学習ベースのZOアルゴリズムを提案する。
その結果,ZO-RLアルゴリズムはサンプリングポリシを学習することでZO勾配の分散を効果的に低減し,既存のZOアルゴリズムよりも高速に収束できることが示唆された。
論文 参考訳(メタデータ) (2021-04-09T14:50:59Z) - Gradient-free quantum optimization on NISQ devices [0.0]
重み依存学習の最近の進歩を考察し、適切な回路アーキテクチャとパラメータチューニングのトレードオフに対処する戦略を提案する。
遺伝的競合を介して回路を評価するNEATに基づくアルゴリズムの使用を検討し、パラメータ数を超えることにより問題を回避します。
論文 参考訳(メタデータ) (2020-12-23T10:24:54Z) - Natural Evolutionary Strategies for Variational Quantum Computation [0.7874708385247353]
自然進化戦略 (NES) は勾配のないブラックボックス最適化アルゴリズムの一群である。
本研究では、無作為化パラメトリゼーション量子回路(PQC)の減衰勾配領域における最適化への応用について述べる。
論文 参考訳(メタデータ) (2020-11-30T21:23:38Z) - Logistic Q-Learning [87.00813469969167]
MDPにおける最適制御の正規化線形プログラミング定式化から導いた新しい強化学習アルゴリズムを提案する。
提案アルゴリズムの主な特徴は,広範に使用されているベルマン誤差の代わりとして理論的に音声として機能する,政策評価のための凸損失関数である。
論文 参考訳(メタデータ) (2020-10-21T17:14:31Z) - Adaptive pruning-based optimization of parameterized quantum circuits [62.997667081978825]
Variisyハイブリッド量子古典アルゴリズムは、ノイズ中間量子デバイスの使用を最大化する強力なツールである。
我々は、変分量子アルゴリズムで使用されるそのようなアンサーゼを「効率的な回路訓練」(PECT)と呼ぶ戦略を提案する。
すべてのアンサッツパラメータを一度に最適化する代わりに、PECTは一連の変分アルゴリズムを起動する。
論文 参考訳(メタデータ) (2020-10-01T18:14:11Z) - Variance Reduction for Deep Q-Learning using Stochastic Recursive
Gradient [51.880464915253924]
深層Q-ラーニングアルゴリズムは、過度な分散を伴う勾配推定に苦しむことが多い。
本稿では、SRG-DQNと呼ばれる新しいアルゴリズムを実現するため、深層Q-ラーニングにおける勾配推定を更新するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-25T00:54:20Z) - AdaS: Adaptive Scheduling of Stochastic Gradients [50.80697760166045]
我々は、textit "knowledge gain" と textit "mapping condition" の概念を導入し、Adaptive Scheduling (AdaS) と呼ばれる新しいアルゴリズムを提案する。
実験によると、AdaSは派生した指標を用いて、既存の適応学習手法よりも高速な収束と優れた一般化、そして(b)いつトレーニングを中止するかを決定するための検証セットへの依存の欠如を示す。
論文 参考訳(メタデータ) (2020-06-11T16:36:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。