論文の概要: Quantum Natural Gradient with Efficient Backtracking Line Search
- arxiv url: http://arxiv.org/abs/2211.00615v1
- Date: Tue, 1 Nov 2022 17:29:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-20 19:27:29.092987
- Title: Quantum Natural Gradient with Efficient Backtracking Line Search
- Title(参考訳): 効率的なバックトラックライン探索による量子自然勾配
- Authors: Touheed Anwar Atif, Uchenna Chukwu, Jesse Berwald and Raouf Dridi
- Abstract要約: 本稿では,効率的なバックトラックライン探索であるArmijoのルールに基づくQNGDの適応的実装を提案する。
我々の結果は、変分量子計算における微分幾何学の重要性の新たな証明である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider the Quantum Natural Gradient Descent (QNGD) scheme which was
recently proposed to train variational quantum algorithms. QNGD is Steepest
Gradient Descent (SGD) operating on the complex projective space equipped with
the Fubini-Study metric. Here we present an adaptive implementation of QNGD
based on Armijo's rule, which is an efficient backtracking line search that
enjoys a proven convergence. The proposed algorithm is tested using noisy
simulators on three different models with various initializations. Our results
show that Adaptive QNGD dynamically adapts the step size and consistently
outperforms the original QNGD, which requires knowledge of optimal step size to
{perform competitively}. In addition, we show that the additional complexity
involved in performing the line search in Adaptive QNGD is minimal, ensuring
the gains provided by the proposed adaptive strategy dominates any increase in
complexity. Additionally, our benchmarking demonstrates that a simple SGD
algorithm (implemented in the Euclidean space) equipped with the adaptive
scheme above, can yield performances similar to the QNGD scheme with optimal
step size.
Our results are yet another confirmation of the importance of differential
geometry in variational quantum computations. As a matter of fact, we foresee
advanced mathematics to play a prominent role in the NISQ era in guiding the
design of faster and more efficient algorithms.
- Abstract(参考訳): 近年,変分量子アルゴリズムを学習するために提案されたQNGD(Quantum Natural Gradient Descent)方式について検討した。
QNGD (Steepest Gradient Descent, SGD) は、フビニ・スタディ計量を備えた複素射影空間で動作する。
本稿ではArmijoの規則に基づくQNGDの適応的実装を提案する。
提案アルゴリズムは, 様々な初期化を伴う3種類のモデルにおいて, 雑音シミュレータを用いて検証する。
以上の結果から,適応型QNGDはステップサイズを動的に適応し,競争的に最適なステップサイズに関する知識を必要とする元のQNGDを一貫して上回ることを示す。
さらに,適応qngdで行探索を行うための追加の複雑さは最小であり,提案する適応戦略によって提供される利得が複雑さの増大を支配することを保証する。
さらに、上記の適応型スキームを具備した単純なSGDアルゴリズム(ユークリッド空間に実装)により、最適なステップサイズを持つQNGDスキームと同様の性能が得られることを示した。
我々の結果は、変分量子計算における微分幾何学の重要性の新たな確認である。
実際、我々は、より高速で効率的なアルゴリズムの設計を導く上で、高度な数学がNISQ時代に顕著な役割を果たしていることを予測している。
関連論文リスト
- Quantum evolutionary algorithm for TSP combinatorial optimisation problem [0.0]
本稿では、量子遺伝的アルゴリズム(QGA)を用いて、旅行セールスマン問題(TSP)と呼ばれる新しい問題を解決する方法を実装する。
我々は、この新しいアプローチがいかにうまく機能するかを、古典的遺伝的アルゴリズム(CGA)として知られる従来の手法と比較した。
論文 参考訳(メタデータ) (2024-09-20T08:27:42Z) - Application of Langevin Dynamics to Advance the Quantum Natural Gradient Optimization Algorithm [47.47843839099175]
近年,変分量子回路の最適化のためのQNGアルゴリズムが提案されている。
本研究では、この離散時間解が一般化形式を与えることを示すために、QNG力を持つランゲヴィン方程式を用いる。
論文 参考訳(メタデータ) (2024-09-03T15:21:16Z) - Compact Multi-Threshold Quantum Information Driven Ansatz For Strongly Interactive Lattice Spin Models [0.0]
近似量子相互情報(QMI)に基づくアンザッツ建築の体系的手順を提案する。
提案手法は,QMI値に基づいて各層の量子ビット対が選択される層状アンサッツを生成し,より効率的な状態生成と最適化ルーチンを実現する。
その結果,Multi-QIDA法は高い精度を維持しながら計算複雑性を低減し,格子スピンモデルにおける量子シミュレーションに有望なツールであることがわかった。
論文 参考訳(メタデータ) (2024-08-05T17:07:08Z) - Federated Conditional Stochastic Optimization [110.513884892319]
条件付き最適化は、不変学習タスク、AUPRC、AMLなど、幅広い機械学習タスクで見られる。
本稿では,分散フェデレーション学習のためのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-04T01:47:37Z) - Adaptive projected variational quantum dynamics [0.0]
本稿では,正確な変動時間進化波動関数を作成するための適応量子アルゴリズムを提案する。
この方法は、予測された変動量子ダイナミクス(pVQD)アルゴリズムに基づいている。
本研究では, 駆動スピンモデルとフェルミオン系のシミュレーションに新しいアルゴリズムを適用した。
論文 参考訳(メタデータ) (2023-07-06T18:00:04Z) - Stochastic Ratios Tracking Algorithm for Large Scale Machine Learning
Problems [0.7614628596146599]
古典的なSGDフレームワークにおける適応的なステップ長選択のための新しいアルゴリズムを提案する。
妥当な条件下では、アルゴリズムは十分に確立された理論的な要件に従ってステップ長を生成する。
このアルゴリズムは,手動チューニングから得られる最良ステップ長に匹敵するステップ長を生成することができることを示す。
論文 参考訳(メタデータ) (2023-05-17T06:22:11Z) - Faster Adaptive Federated Learning [84.38913517122619]
フェデレートラーニングは分散データの出現に伴って注目を集めている。
本稿では,クロスサイロFLにおけるモーメントに基づく分散低減手法に基づく適応アルゴリズム(FAFED)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:07:50Z) - Sinkhorn Natural Gradient for Generative Models [125.89871274202439]
本研究では,シンクホーンの発散による確率空間上の最も急降下法として機能するシンクホーン自然勾配(SiNG)アルゴリズムを提案する。
本稿では,SiNG の主要成分であるシンクホーン情報行列 (SIM) が明示的な表現を持ち,対数的スケールの複雑さを正確に評価できることを示す。
本実験では,SiNGと最先端のSGD型解法を定量的に比較し,その有効性と有効性を示す。
論文 参考訳(メタデータ) (2020-11-09T02:51:17Z) - Adaptive pruning-based optimization of parameterized quantum circuits [62.997667081978825]
Variisyハイブリッド量子古典アルゴリズムは、ノイズ中間量子デバイスの使用を最大化する強力なツールである。
我々は、変分量子アルゴリズムで使用されるそのようなアンサーゼを「効率的な回路訓練」(PECT)と呼ぶ戦略を提案する。
すべてのアンサッツパラメータを一度に最適化する代わりに、PECTは一連の変分アルゴリズムを起動する。
論文 参考訳(メタデータ) (2020-10-01T18:14:11Z) - Adaptivity of Stochastic Gradient Methods for Nonconvex Optimization [71.03797261151605]
適応性は現代最適化理論において重要であるが、研究されていない性質である。
提案アルゴリズムは,PL目標に対して既存のアルゴリズムよりも優れた性能を保ちながら,PL目標に対して最適な収束性を実現することを実証した。
論文 参考訳(メタデータ) (2020-02-13T05:42:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。