論文の概要: Policy Gradient Approach to Compilation of Variational Quantum Circuits
- arxiv url: http://arxiv.org/abs/2111.10227v1
- Date: Fri, 19 Nov 2021 14:03:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-22 20:36:28.805851
- Title: Policy Gradient Approach to Compilation of Variational Quantum Circuits
- Title(参考訳): 変分量子回路のコンパイルに対するポリシーのグラディエントアプローチ
- Authors: David A. Herrera-Mart\'i
- Abstract要約: 本稿では,量子回路の近似コンパイル法を提案する。
ポリシーの選択により、確率分布の観点から最適化問題を言い換えることができる。
このアプローチは勾配のない手法よりも競争力があることを数値的に示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a method for finding approximate compilations of quantum circuits,
based on techniques from policy gradient reinforcement learning. The choice of
a stochastic policy allows us to rephrase the optimization problem in terms of
probability distributions, rather than variational parameters. This implies
that searching for the optimal configuration is done by optimizing over the
distribution parameters, rather than over the circuit free angles. The upshot
of this is that we can always compute a gradient, provided that the policy is
differentiable. We show numerically that this approach is more competitive than
those using gradient-free methods, even in the presence of depolarizing noise,
and argue analytically why this is the case. Another interesting feature of
this approach to variational compilation is that it does not need a separate
register and long-range interactions to estimate the end-point fidelity. We
expect these techniques to be relevant for training variational circuit in
other contexts
- Abstract(参考訳): 本稿では,政策勾配強化学習の手法に基づいて,量子回路の近似コンパイルを求める手法を提案する。
確率的ポリシーの選択により、変動パラメータではなく確率分布の観点から最適化問題を言い換えることができる。
これは、回路自由角度よりも分布パラメータを最適化することで、最適構成の探索を行うことを意味する。
要点は、ポリシーが微分可能であれば、常に勾配を計算できるということです。
非分極ノイズの存在下でも、このアプローチは勾配のない手法よりも競争力があることを数値的に示し、なぜそうであるのかを分析的に議論する。
変分コンパイルに対するこのアプローチのもう1つの興味深い特徴は、エンドポイント忠実度を推定するために別々のレジスタと長距離インタラクションを必要としないことである。
他の文脈における変分回路の訓練にこれらの手法が関係していると期待する。
関連論文リスト
- Learning Optimal Deterministic Policies with Stochastic Policy Gradients [62.81324245896716]
政策勾配法(PG法)は連続強化学習(RL法)問題に対処する手法として成功している。
一般的には、収束(ハイパー)政治は、決定論的バージョンをデプロイするためにのみ学習される。
本稿では,サンプルの複雑性とデプロイされた決定論的ポリシのパフォーマンスのトレードオフを最適化するために,学習に使用する探索レベルの調整方法を示す。
論文 参考訳(メタデータ) (2024-05-03T16:45:15Z) - Random coordinate descent: a simple alternative for optimizing parameterized quantum circuits [4.112419132722306]
本稿では、全勾配降下アルゴリズムに代わる実用的で実装が容易なランダム座標降下アルゴリズムを提案する。
本稿では,パラメータ化量子回路の実用最適化における計測ノイズの挙動から,解析可能な最適化問題を提案する。
論文 参考訳(メタデータ) (2023-10-31T18:55:45Z) - Optimizing Solution-Samplers for Combinatorial Problems: The Landscape
of Policy-Gradient Methods [52.0617030129699]
本稿では,DeepMatching NetworksとReinforcement Learningメソッドの有効性を解析するための新しい理論フレームワークを提案する。
我々の主な貢献は、Max- and Min-Cut、Max-$k$-Bipartite-Bi、Maximum-Weight-Bipartite-Bi、Traveing Salesman Problemを含む幅広い問題である。
本分析の副産物として,バニラ降下による新たな正則化プロセスを導入し,失効する段階的な問題に対処し,悪い静止点から逃れる上で有効であることを示す理論的および実験的証拠を提供する。
論文 参考訳(メタデータ) (2023-10-08T23:39:38Z) - Parsimonious Optimisation of Parameters in Variational Quantum Circuits [1.303764728768944]
最適なパラメータを更新するために、1イテレーション毎に少なくとも2つの回路を実行する必要がある新しい量子勾配サンプリングを提案する。
提案手法は,古典的勾配降下に類似した収束率を達成し,勾配座標降下とSPSAを実証的に上回っている。
論文 参考訳(メタデータ) (2023-06-20T18:50:18Z) - Fast and Correct Gradient-Based Optimisation for Probabilistic
Programming via Smoothing [0.0]
本稿では,後部推論を最適化問題とする変分推論の基礎について検討する。
私たちは、測定可能とスムーズな(近似的な)値セマンティクスの両方を言語に与えました。
提案手法は鍵となる競合相手と同様の収束性を持つが,よりシンプルで,高速で,作業正規化分散の桁違いの低減が達成できることを示す。
論文 参考訳(メタデータ) (2023-01-09T15:12:45Z) - Cyclic Block Coordinate Descent With Variance Reduction for Composite
Nonconvex Optimization [26.218670461973705]
非漸近勾配ノルム保証を協調する問題の解法を提案する。
本研究は,ニューラルネットの深部学習における循環還元方式の有効性を実証するものである。
論文 参考訳(メタデータ) (2022-12-09T19:17:39Z) - The Curse of Unrolling: Rate of Differentiating Through Optimization [35.327233435055305]
未分化は反復解法を用いて解を近似し、計算経路を通して解を微分する。
我々は,(1)高速収束につながる大きな学習率を選択することができるが,アルゴリズムが任意に長いバーンインフェーズを持つことを受け入れるか,あるいは(2)即時収束につながるより少ない学習率を選択するかのどちらかを示す。
論文 参考訳(メタデータ) (2022-09-27T09:27:29Z) - Improper Learning with Gradient-based Policy Optimization [62.50997487685586]
未知のマルコフ決定過程に対して学習者がmベースコントローラを与えられる不適切な強化学習設定を考える。
制御器の不適切な混合のクラス上で動作する勾配に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2021-02-16T14:53:55Z) - Divide and Learn: A Divide and Conquer Approach for Predict+Optimize [50.03608569227359]
予測+最適化問題は、予測係数を使用する最適化プロブレムと、確率係数の機械学習を組み合わせる。
本稿では, 予測係数を1次線形関数として, 最適化問題の損失を直接表現する方法を示す。
本稿では,この制約を伴わずに最適化問題に対処し,最適化損失を用いてその係数を予測する新しい分割アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-04T00:26:56Z) - Variance-Reduced Off-Policy Memory-Efficient Policy Search [61.23789485979057]
政治政策の最適化は強化学習において難しい問題である。
オフポリシーアルゴリズムはメモリ効率が高く、オフポリシーサンプルから学ぶことができる。
論文 参考訳(メタデータ) (2020-09-14T16:22:46Z) - Gradient-Free Methods for Saddle-Point Problem [125.99533416395765]
我々はGasnikov et al., 2017のアプローチを一般化し、不正確な勾配のないオラクルで(確率的な)凸最適化問題を解けるようにした。
我々のアプローチは、$fracnlog n$ の要求するオラクル呼び出しの回数を削減します。
論文の後半では、そのような仮定ができない場合を分析し、この問題を解決する方法の近代化方法に関する一般的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-05-12T16:44:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。