論文の概要: An Empirical Comparison of Optimizers for Quantum Machine Learning with
SPSA-based Gradients
- arxiv url: http://arxiv.org/abs/2305.00224v1
- Date: Thu, 27 Apr 2023 15:19:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-02 16:20:28.748275
- Title: An Empirical Comparison of Optimizers for Quantum Machine Learning with
SPSA-based Gradients
- Title(参考訳): SPSAに基づくグラディエントを用いた量子機械学習における最適化の実証的比較
- Authors: Marco Wiedmann and Marc H\"olle and Maniraman Periyasamy and Nico
Meyer and Christian Ufrecht and Daniel D. Scherer and Axel Plinge and
Christopher Mutschler
- Abstract要約: 本研究では,SPSAからの近似勾配と最先端の古典勾配を併用した新しい手法を提案する。
単純な回帰タスクにおいて、収束率と絶対誤差の点で標準SPSAとパラメータシフト則の両方に優れることを示す。
- 参考スコア(独自算出の注目度): 1.2532932830320982
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: VQA have attracted a lot of attention from the quantum computing community
for the last few years. Their hybrid quantum-classical nature with relatively
shallow quantum circuits makes them a promising platform for demonstrating the
capabilities of NISQ devices. Although the classical machine learning community
focuses on gradient-based parameter optimization, finding near-exact gradients
for VQC with the parameter-shift rule introduces a large sampling overhead.
Therefore, gradient-free optimizers have gained popularity in quantum machine
learning circles. Among the most promising candidates is the SPSA algorithm,
due to its low computational cost and inherent noise resilience. We introduce a
novel approach that uses the approximated gradient from SPSA in combination
with state-of-the-art gradient-based classical optimizers. We demonstrate
numerically that this outperforms both standard SPSA and the parameter-shift
rule in terms of convergence rate and absolute error in simple regression
tasks. The improvement of our novel approach over SPSA with stochastic gradient
decent is even amplified when shot- and hardware-noise are taken into account.
We also demonstrate that error mitigation does not significantly affect our
results.
- Abstract(参考訳): VQAはここ数年、量子コンピューティングコミュニティから多くの注目を集めてきた。
比較的浅い量子回路を持つそれらのハイブリッド量子古典的性質は、NISQデバイスの能力を実証するための有望なプラットフォームとなる。
古典的な機械学習コミュニティは勾配に基づくパラメータ最適化に重点を置いているが、パラメータシフトルールによるVQCの近似勾配の発見は、大きなサンプリングオーバーヘッドをもたらす。
したがって、勾配フリー最適化は量子機械学習のサークルで人気を集めている。
最も有望な候補はSPSAアルゴリズムであり、計算コストの低さと固有のノイズ耐性のためである。
本稿では,SPSAからの近似勾配と,最先端の勾配に基づく古典最適化を併用した新しい手法を提案する。
単純な回帰タスクにおいて、収束率と絶対誤差の点で標準SPSAとパラメータシフト則の両方に優れることを示す。
ショットノイズやハードウェアノイズを考慮した場合,確率勾配が良好であるspsaに対する新しいアプローチの改善は,さらに増幅される。
また,誤差軽減が結果に悪影響を及ぼさないことを示す。
関連論文リスト
- Efficient Quantum Gradient and Higher-order Derivative Estimation via Generalized Hadamard Test [2.5545813981422882]
パラメータ化量子回路(PQC)の動作を理解するためには、勾配に基づく手法が不可欠である
有限差分、シフト規則、アダマール試験、直接アダマール試験などの既存の勾配推定法は、特定のPQCに対して最適な勾配回路を得ることが多い。
本稿では,一階勾配推定法に適用したフレキシブル・アダマールテスト(Flexible Hadamard Test)を提案する。
また、PQ内の個々のパラメータに対する最適勾配推定手法を適応的に選択する統一勾配法である量子自動微分(QAD)を導入する。
論文 参考訳(メタデータ) (2024-08-10T02:08:54Z) - Guided-SPSA: Simultaneous Perturbation Stochastic Approximation assisted by the Parameter Shift Rule [4.943277284710129]
本稿では,パラメータシフト則とSPSAに基づく勾配近似を有意に組み合わせた新しい勾配推定手法である Guided-SPSAを提案する。
Guided-SPSAは、同じもしくはより良い解の最適性のためのトレーニング中に必要となる回路評価回数を15%から25%削減する。
本稿では、回帰、分類、強化学習など、量子機械学習の様々なパラダイムにおけるガイド付きSPSAの性能を示す。
論文 参考訳(メタデータ) (2024-04-24T09:13:39Z) - Domain Generalization Guided by Gradient Signal to Noise Ratio of
Parameters [69.24377241408851]
ソースドメインへのオーバーフィッティングは、ディープニューラルネットワークの勾配に基づくトレーニングにおいて一般的な問題である。
本稿では,ネットワークパラメータの勾配-信号-雑音比(GSNR)を選択することを提案する。
論文 参考訳(メタデータ) (2023-10-11T10:21:34Z) - Variational Quantum Approximate Spectral Clustering for Binary
Clustering Problems [0.7550566004119158]
本稿では,変分量子近似スペクトルクラスタリング(VQASC)アルゴリズムを提案する。
VQASCは、伝統的に古典的な問題で必要とされるシステムサイズ、Nよりも少ないパラメータの最適化を必要とする。
合成と実世界の両方のデータセットから得られた数値結果について述べる。
論文 参考訳(メタデータ) (2023-09-08T17:54:42Z) - Scaling Forward Gradient With Local Losses [117.22685584919756]
フォワード学習は、ディープニューラルネットワークを学ぶためのバックプロップに代わる生物学的に妥当な代替手段である。
重みよりも活性化に摂動を適用することにより、前方勾配のばらつきを著しく低減できることを示す。
提案手法はMNIST と CIFAR-10 のバックプロップと一致し,ImageNet 上で提案したバックプロップフリーアルゴリズムよりも大幅に優れていた。
論文 参考訳(メタデータ) (2022-10-07T03:52:27Z) - LAWS: Look Around and Warm-Start Natural Gradient Descent for Quantum
Neural Networks [11.844238544360149]
Vari Quantum Algorithm (VQA) は、ノイズ中間スケール量子コンピュータ (NISQ) における有望な性能のために最近注目されている。
パラメータ化量子回路(PQC)上でランダムなパラメータを持つVQAは、勾配が量子ビット数で指数関数的に消えるバレンプラトー(BP)によって特徴づけられる。
本稿では、古典的な1次最適化点から、VQAでよく使われるアルゴリズムの1つである量子自然勾配(QNG)について述べる。
そして、私たちはアンダーラインAroundアンダーラインを提案しました。
論文 参考訳(メタデータ) (2022-05-05T14:16:40Z) - Faster One-Sample Stochastic Conditional Gradient Method for Composite
Convex Minimization [61.26619639722804]
滑らかで非滑らかな項の和として形成される凸有限サム目標を最小化するための条件勾配法(CGM)を提案する。
提案手法は, 平均勾配 (SAG) 推定器を備え, 1回に1回のサンプルしか必要としないが, より高度な分散低減技術と同等の高速収束速度を保証できる。
論文 参考訳(メタデータ) (2022-02-26T19:10:48Z) - Communication-Efficient Federated Learning via Quantized Compressed
Sensing [82.10695943017907]
提案フレームワークは,無線機器の勾配圧縮とパラメータサーバの勾配再構成からなる。
勾配スペーシフィケーションと量子化により、我々の戦略は1ビット勾配圧縮よりも高い圧縮比を達成することができる。
圧縮を行わない場合とほぼ同じ性能を実現できることを示す。
論文 参考訳(メタデータ) (2021-11-30T02:13:54Z) - A Comparison of Various Classical Optimizers for a Variational Quantum
Linear Solver [0.0]
変分型ハイブリッド量子古典アルゴリズム(VHQCAs)は、ノイズの多い量子デバイス上で動作することを目的とした量子アルゴリズムのクラスである。
これらのアルゴリズムは、パラメータ化量子回路(アンサッツ)と量子古典フィードバックループを用いる。
古典的なデバイスは、量子デバイス上ではるかに効率的に計算できるコスト関数を最小限に抑えるためにパラメータを最適化するために使用される。
論文 参考訳(メタデータ) (2021-06-16T10:40:00Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - Self-Tuning Stochastic Optimization with Curvature-Aware Gradient
Filtering [53.523517926927894]
サンプルごとのHessian-vector積と勾配を用いて、自己チューニングの二次構造を構築する。
モデルに基づく手続きが雑音勾配設定に収束することを証明する。
これは自己チューニング二次体を構築するための興味深いステップである。
論文 参考訳(メタデータ) (2020-11-09T22:07:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。