論文の概要: Quantum Natural Gradient with Efficient Backtracking Line Search
- arxiv url: http://arxiv.org/abs/2211.00615v1
- Date: Tue, 1 Nov 2022 17:29:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-20 19:27:29.092987
- Title: Quantum Natural Gradient with Efficient Backtracking Line Search
- Title(参考訳): 効率的なバックトラックライン探索による量子自然勾配
- Authors: Touheed Anwar Atif, Uchenna Chukwu, Jesse Berwald and Raouf Dridi
- Abstract要約: 本稿では,効率的なバックトラックライン探索であるArmijoのルールに基づくQNGDの適応的実装を提案する。
我々の結果は、変分量子計算における微分幾何学の重要性の新たな証明である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider the Quantum Natural Gradient Descent (QNGD) scheme which was
recently proposed to train variational quantum algorithms. QNGD is Steepest
Gradient Descent (SGD) operating on the complex projective space equipped with
the Fubini-Study metric. Here we present an adaptive implementation of QNGD
based on Armijo's rule, which is an efficient backtracking line search that
enjoys a proven convergence. The proposed algorithm is tested using noisy
simulators on three different models with various initializations. Our results
show that Adaptive QNGD dynamically adapts the step size and consistently
outperforms the original QNGD, which requires knowledge of optimal step size to
{perform competitively}. In addition, we show that the additional complexity
involved in performing the line search in Adaptive QNGD is minimal, ensuring
the gains provided by the proposed adaptive strategy dominates any increase in
complexity. Additionally, our benchmarking demonstrates that a simple SGD
algorithm (implemented in the Euclidean space) equipped with the adaptive
scheme above, can yield performances similar to the QNGD scheme with optimal
step size.
Our results are yet another confirmation of the importance of differential
geometry in variational quantum computations. As a matter of fact, we foresee
advanced mathematics to play a prominent role in the NISQ era in guiding the
design of faster and more efficient algorithms.
- Abstract(参考訳): 近年,変分量子アルゴリズムを学習するために提案されたQNGD(Quantum Natural Gradient Descent)方式について検討した。
QNGD (Steepest Gradient Descent, SGD) は、フビニ・スタディ計量を備えた複素射影空間で動作する。
本稿ではArmijoの規則に基づくQNGDの適応的実装を提案する。
提案アルゴリズムは, 様々な初期化を伴う3種類のモデルにおいて, 雑音シミュレータを用いて検証する。
以上の結果から,適応型QNGDはステップサイズを動的に適応し,競争的に最適なステップサイズに関する知識を必要とする元のQNGDを一貫して上回ることを示す。
さらに,適応qngdで行探索を行うための追加の複雑さは最小であり,提案する適応戦略によって提供される利得が複雑さの増大を支配することを保証する。
さらに、上記の適応型スキームを具備した単純なSGDアルゴリズム(ユークリッド空間に実装)により、最適なステップサイズを持つQNGDスキームと同様の性能が得られることを示した。
我々の結果は、変分量子計算における微分幾何学の重要性の新たな確認である。
実際、我々は、より高速で効率的なアルゴリズムの設計を導く上で、高度な数学がNISQ時代に顕著な役割を果たしていることを予測している。
関連論文リスト
- Federated Conditional Stochastic Optimization [110.513884892319]
条件付き最適化は、不変学習タスク、AUPRC、AMLなど、幅広い機械学習タスクで見られる。
本稿では,分散フェデレーション学習のためのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-04T01:47:37Z) - Adaptive projected variational quantum dynamics [0.0]
本稿では,正確な変動時間進化波動関数を作成するための適応量子アルゴリズムを提案する。
この方法は、予測された変動量子ダイナミクス(pVQD)アルゴリズムに基づいている。
本研究では, 駆動スピンモデルとフェルミオン系のシミュレーションに新しいアルゴリズムを適用した。
論文 参考訳(メタデータ) (2023-07-06T18:00:04Z) - Optimization strategies in WAHTOR algorithm for quantum computing
empirical ansatz: a comparative study [0.0]
本研究はWAHTORアルゴリズムの非断熱バージョンを導入し,その効率を3つの実装と比較する。
固定されたVQEパラメータでハミルトニアンの1階微分と2階微分を計算することは、原型的なQPUオーバーロードを導入しない。
ハバードモデルシステムの場合、信頼領域非断熱最適化の方が効率的であることが判明した。
論文 参考訳(メタデータ) (2023-06-19T15:07:55Z) - Stochastic Ratios Tracking Algorithm for Large Scale Machine Learning
Problems [0.7614628596146599]
古典的なSGDフレームワークにおける適応的なステップ長選択のための新しいアルゴリズムを提案する。
妥当な条件下では、アルゴリズムは十分に確立された理論的な要件に従ってステップ長を生成する。
このアルゴリズムは,手動チューニングから得られる最良ステップ長に匹敵するステップ長を生成することができることを示す。
論文 参考訳(メタデータ) (2023-05-17T06:22:11Z) - Faster Adaptive Federated Learning [84.38913517122619]
フェデレートラーニングは分散データの出現に伴って注目を集めている。
本稿では,クロスサイロFLにおけるモーメントに基づく分散低減手法に基づく適応アルゴリズム(FAFED)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:07:50Z) - TETRIS-ADAPT-VQE: An adaptive algorithm that yields shallower, denser
circuit ans\"atze [0.0]
TETRIS-ADAPT-VQEと呼ばれるアルゴリズムを導入する。
その結果、CNOTゲートの数や変動パラメータを増大させることなく、より密度が高く、より浅い回路が得られる。
これらの改善により、量子ハードウェアに実用的な量子優位性を示すという目標に近づきます。
論文 参考訳(メタデータ) (2022-09-21T18:00:02Z) - Adaptive shot allocation for fast convergence in variational quantum
algorithms [0.0]
本稿では,gCANS法 (Global Coupled Adaptive Number of Shots) と呼ばれる,各ステップに適応するショット数を用いた勾配降下法を提案する。
これらの改善により、現在のクラウドプラットフォーム上でVQAを実行するのに必要な時間と費用が削減される。
論文 参考訳(メタデータ) (2021-08-23T22:29:44Z) - Sinkhorn Natural Gradient for Generative Models [125.89871274202439]
本研究では,シンクホーンの発散による確率空間上の最も急降下法として機能するシンクホーン自然勾配(SiNG)アルゴリズムを提案する。
本稿では,SiNG の主要成分であるシンクホーン情報行列 (SIM) が明示的な表現を持ち,対数的スケールの複雑さを正確に評価できることを示す。
本実験では,SiNGと最先端のSGD型解法を定量的に比較し,その有効性と有効性を示す。
論文 参考訳(メタデータ) (2020-11-09T02:51:17Z) - Adaptive pruning-based optimization of parameterized quantum circuits [62.997667081978825]
Variisyハイブリッド量子古典アルゴリズムは、ノイズ中間量子デバイスの使用を最大化する強力なツールである。
我々は、変分量子アルゴリズムで使用されるそのようなアンサーゼを「効率的な回路訓練」(PECT)と呼ぶ戦略を提案する。
すべてのアンサッツパラメータを一度に最適化する代わりに、PECTは一連の変分アルゴリズムを起動する。
論文 参考訳(メタデータ) (2020-10-01T18:14:11Z) - Iterative Algorithm Induced Deep-Unfolding Neural Networks: Precoding
Design for Multiuser MIMO Systems [59.804810122136345]
本稿では,AIIDNN(ディープ・アンフォールディング・ニューラルネット)を一般化した,ディープ・アンフォールディングのためのフレームワークを提案する。
古典的重み付き最小二乗誤差(WMMSE)反復アルゴリズムの構造に基づく効率的なIAIDNNを提案する。
提案したIAIDNNは,計算複雑性を低減した反復WMMSEアルゴリズムの性能を効率よく向上することを示す。
論文 参考訳(メタデータ) (2020-06-15T02:57:57Z) - Adaptivity of Stochastic Gradient Methods for Nonconvex Optimization [71.03797261151605]
適応性は現代最適化理論において重要であるが、研究されていない性質である。
提案アルゴリズムは,PL目標に対して既存のアルゴリズムよりも優れた性能を保ちながら,PL目標に対して最適な収束性を実現することを実証した。
論文 参考訳(メタデータ) (2020-02-13T05:42:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。